KR20180039439A - Guidance robot for airport and method thereof - Google Patents

Guidance robot for airport and method thereof Download PDF

Info

Publication number
KR20180039439A
KR20180039439A KR1020160130736A KR20160130736A KR20180039439A KR 20180039439 A KR20180039439 A KR 20180039439A KR 1020160130736 A KR1020160130736 A KR 1020160130736A KR 20160130736 A KR20160130736 A KR 20160130736A KR 20180039439 A KR20180039439 A KR 20180039439A
Authority
KR
South Korea
Prior art keywords
airport
image
robot
user
guidance
Prior art date
Application number
KR1020160130736A
Other languages
Korean (ko)
Other versions
KR102597216B1 (en
Inventor
신용민
송현섭
박중태
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020160130736A priority Critical patent/KR102597216B1/en
Publication of KR20180039439A publication Critical patent/KR20180039439A/en
Application granted granted Critical
Publication of KR102597216B1 publication Critical patent/KR102597216B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/04Processes or apparatus for producing holograms

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Navigation (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Traffic Control Systems (AREA)

Abstract

According to one embodiment of the present invention, a guidance robot for an airport comprises: a map management module for storing airport map data; a communication unit for transmitting and receiving the data; an image processor for treating images; an outputting unit for outputting the treated images; and a controller for controlling operation of the guidance robot for an airport. When receiving a request signal for route guidance, the controller calculates a movement route from a current position to a destination, produces route guidance content based on the movement route, and controls the route guidance content to be outputted in accordance with a type of the route guidance content.

Description

공항용 안내 로봇 및 그의 동작 방법{GUIDANCE ROBOT FOR AIRPORT AND METHOD THEREOF}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a guidance robot for an airport,

본 발명은 공항에 배치되는 로봇 및 그의 동작 방법에 관한 것으로, 보다 상세하게는 공항에 배치되어 사용자들에게 길 안내를 제공하는 홀로그램 이미지 또는 3D 컨텐츠를 제공하는 공항용 안내 로봇 및 그의 동작 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot disposed in an airport and a method of operating the same, and more particularly, to an airport guidance robot for providing a hologram image or 3D content, will be.

최근 딥러닝(Deep Learning) 기술, 자율 주행 기술, 자동 제어 기술, 사물인터넷 등의 발전으로 로봇의 기능이 확대되고 있다.Recently, the functions of robots are expanding due to the development of deep learning technology, autonomous driving technology, automatic control technology, and Internet of things.

각각의 기술을 구체적으로 설명하면, 딥러닝은 기계학습의 한 분야에 해당한다. 딥러닝은 프로그램에 미리 조건을 확인하고 명령을 설정해두는 방식이 아니라, 다양한 상황에 대해 프로그램이 유사한 판단을 내리도록 하는 기술이다. 따라서, 딥러닝에 따르면 컴퓨터가 인간의 뇌와 유사하게 사고할 수 있고, 방대한 양의 데이터 분석을 가능하게 한다.To describe each technique in detail, deep learning is an area of machine learning. Deep learning is a technique that allows a program to make similar judgments about a variety of situations, not by pre-checking conditions and setting commands. Thus, deep learning allows a computer to think similar to a human brain, and enables vast amounts of data analysis.

자율 주행은 기계가 스스로 판단하여 이동하고, 장애물을 피할 수 있는 기술이다. 자율 주행 기술에 따르면 로봇은 센서를 통해 자율적으로 위치를 인식하여 이동하고 장애물을 피할 수 있게 된다.Autonomous driving is a technique by which a machine can judge itself and move and avoid obstacles. According to the autonomous navigation technology, the robot can recognize the position autonomously through the sensor and can move and avoid obstacles.

자동 제어 기술은 기계에서 기계 상태를 검사한 계측 값을 제어 장치에 피드백하여 기계의 동작을 자동으로 제어하는 기술을 말한다. 따라서 사람의 조작 없는 제어가 가능하고, 목적하는 제어 대상을 목적하는 범위 내 즉, 목표 값에 이르도록 자동적으로 조절할 수 있다.The automatic control technology refers to a technology that automatically controls the operation of the machine by feeding back the measured value of the machine condition to the control device. Therefore, it is possible to control the operation without human operation, and to automatically control the target object to be controlled within a target range, that is, to reach the target value.

사물인터넷(Internet of Things)은 인터넷을 기반으로 모든 사물을 연결하여 사람과 사물, 사물과 사물 간의 정보를 상호 소통하는 지능형 기술 및 서비스를 말한다. 사물인터넷에 의해 인터넷에 연결된 기기들은 사람의 도움 없이 알아서 정보를 주고 받으며 자율적인 소통을 하게 된다.The Internet of Things is an intelligent technology and service that connects all objects based on the Internet and communicates information between people, things, things and things. Things that are connected to the Internet by the Internet cause autonomous communication by exchanging information without any help from people.

로봇의 응용분야는 대체로 산업용, 의료용, 우주용, 해저용으로 분류된다. 예를 들면, 자동차 생산과 같은 기계 가공 공업에서는 로봇이 반복작업을 수행할 수 있다. 즉, 사람의 팔이 하는 작업을 한 번만 가르쳐 주면 몇 시간이든 같은 동작을 반복하는 산업로봇이 이미 많이 가동되고 있다.The application fields of robots are generally classified into industrial, medical, space, and submarine applications. For example, in the mechanical processing industry such as automobile production, robots can perform repetitive tasks. In other words, if you teach the work of the human arm only once, many industrial robots that repeat the same operation for a few hours are already in operation.

최근들어 3차원 영상 표시 기술에 대한 관심이 높아지고 있다. 3차원 영상을 표시하기 위한 방법으로는 대표적으로 스테레오스코픽(stereoscopic) 방식이 있다. 스테레오스코픽 방식은 좌안과 우안의 시차 영상을 이용하여 입체 효과를 적용하는 방식이며, 안경을 이용하여 이러한 양안 시차 영상이 구현될 수 있다. 스테레오스코픽 방식은 안경을 착용해야 한다는 큰 단점이 있어, 안경의 착용이 요구되지 않는 무안경 방식이 개발되고 있다. 안경 없이 3차원 영상을 표시하기 위한 방법으로 홀로그램 표시 기술이 연구되고 있다.Recently, interest in 3D image display technology is increasing. As a method for displaying a three-dimensional image, a stereoscopic method is typically used. The stereoscopic method is a method of applying stereoscopic effect using a parallax image of the left eye and right eye, and such a binocular parallax image can be implemented using glasses. The stereoscopic method has a major disadvantage in that glasses must be worn, and a non-eyeglass system in which wear of glasses is not required is being developed. Hologram display technology has been studied as a method for displaying 3D images without glasses.

홀로그램 표시 기술은 물체에서 반사된 광과 간섭성의 광을 겹침으로써 획득되는 간섭 신호를 기록하여 저장하고, 이 간섭 신호를 이용하여 홀로그램을 표시한다. 홀로그램 표시 장치는 간섭 신호를 통해 간섭 무늬를 형성하여 저장하고, 저장된 간섭 무늬에 참조광을 조사하여 간섭 신호를 복원함으로써, 3차원의 홀로그램을 표시한다.The hologram display technology records and stores an interference signal obtained by overlapping light reflected from an object with coherent light, and displays the hologram using the interference signal. The hologram display device forms and stores an interference fringe through an interference signal, and restores the interference signal by irradiating reference light to the stored interference fringe, thereby displaying a three-dimensional hologram.

본 발명의 목적은 복잡한 지리적 조건을 가진 공항에서 이용객들에게 효과적으로 길 안내 서비스를 제공하는 것이다.It is an object of the present invention to effectively provide a route guidance service to users at an airport having complicated geographical conditions.

본 발명의 다른 목적은 공항 이용객의 이해를 돕기 위하여 단순 공항 지도가 아닌 실제 공항 내 이동 경로 이미지를 제공하는 것이다. Another object of the present invention is to provide a route image in an actual airport rather than a simple airport map in order to help the understanding of the airport user.

본 발명의 또 다른 목적은 길 안내 컨텐츠 투사시, 투사 영역에 따른 영상 이미지 왜곡을 방지하는 것이다. Yet another object of the present invention is to prevent distortion of a video image according to a projection area when a guidance content is projected.

본 발명의 또 다른 목적은 공항용 안내 로봇이 길 안내 기능 이외에 비행 관련 컨텐츠도 함께 공항 이용객들에게 제공하는 것이다.Yet another object of the present invention is to provide the airport guidance robot with the flight related contents in addition to the route guiding function to the airport users.

본 발명에 따른 공항용 안내 로봇은 2D, 3D 및 홀로그램으로 이루어진 네비게이션 컨텐츠를 출력하는 출력부를 포함할 수 있다. 또한, 경우에 따라서 사용자를 직접 목적지까지 안내하는 동행 서비스를 제공할 수 있다.The airport guidance robot according to the present invention may include an output unit for outputting navigation contents composed of 2D, 3D, and holograms. In addition, it is possible to provide a cooperative service for guiding the user directly to the destination in some cases.

본 발명에 따른 공항용 안내 로봇은 실시간 CCTV 촬영 영상 데이터를 수신할 수 있다. 그리고, 공항용 안내 로봇은 카메라를 이용하여 사용자를 촬영할 수 있다. 그리고, 공항용 안내 로봇은 사용자 이미지를 실시간 CCTV 촬영 영상 데이터에 합성하여 길 안내 서비스를 제공할 수 있다.The airport guidance robot according to the present invention can receive real-time CCTV photographed image data. Then, the airport guidance robot can photograph a user by using a camera. The airport guidance robot can provide the guidance service by synthesizing the user image with the real-time CCTV photographed image data.

본 발명에 따른 공항용 안내 로봇은 패턴 투사 과정을 통해 공간 구조를 분석할 수 있다. 그리고, 분석된 공간 구조에 대응하여 길 안내 컨텐츠를 캘리브레이션 할 수 있다.The airport guidance robot according to the present invention can analyze the spatial structure through the pattern projection process. Then, the guidance contents can be calibrated in accordance with the analyzed spatial structure.

본 발명에 따른 공항용 안내 로봇은 바코드 리더기를 포함할 수 있다. 바코드 리더기는 탑승 티켓을 통해 비행 정보를 리드(read)할 수 있다. 공항용 안내 로봇은 리드된 탑승 티켓 정보에 대한 비행 정보를 수신할 수 있다.The airport guidance robot according to the present invention may include a barcode reader. The bar code reader can read the flight information through the boarding ticket. The airport guidance robot can receive flight information on the boarding ticket information that is read.

본 발명에 따른 공항용 안내 로봇은 2D, 3D 및 홀로그램으로 이루어진 네비게이션 컨텐츠를 출력하고, 경우에 따라서 사용자를 직접 목적지까지 안내하는 동행 서비스를 제공할 수 있다. 그 결과 복잡한 지리적 조건을 가진 공항에서 이용객들이 쉽게 목적지까지 도달할 수 있는 효과를 가져온다.The airport guidance robot according to the present invention can output navigational contents made up of 2D, 3D and hologram, and can provide a traveling service for guiding a user directly to a destination as the case may be. As a result, it is easy for visitors to arrive at destinations with difficult geographical conditions.

본 발명에 따른 공항용 안내 로봇은 사용자 이미지를 실시간 CCTV 촬영 영상 데이터에 합성하여 길 안내 서비스를 제공할 수 있다. 그 결과, 단순히 지도만으로 길 안내를 제공하는 것보다 사용자의 경로 이해도가 높아지는 효과를 가져온다.The airport guidance robot according to the present invention can provide a route guidance service by synthesizing a user image with real-time CCTV shot image data. As a result, the user's understanding of the route is enhanced rather than simply providing the guidance by the map alone.

본 발명에 따른 공항용 안내 로봇은 분석된 공간 구조에 대응하여 길 안내 컨텐츠를 캘리브레이션 할 수 있다. 그 결과, 공간이 일정하지 않은 공항 내에서 항상 쾌적한 길 안내 컨텐츠 영상을 사용자에게 제공할 수 있는 효과를 가져온다.The airport guidance robot according to the present invention can calibrate the guidance contents in accordance with the analyzed spatial structure. As a result, it is possible to provide comfortable navigation contents images to users at all times in airports where the space is not constant.

본 발명에 따른 공항용 안내 로봇은 바코드 리더기를 통해 사용자가 탑승할 비행기의 비행 정보를 수신할 수 있다. 그리고, 비행 정보가 포함된 안내 컨텐츠를 2D, 3D, 홀로그램 등으로 투사하여 출력할 수 있다. 그 결과, 공항 이용객들은 손쉽게 자신의 비행 정보를 공항 어느 곳에서도 확인할 수 있는 효과를 효과를 가져온다. The airborne guide robot according to the present invention can receive flight information of an airplane on which a user is to be boarded through a barcode reader. Then, the guide contents including the flight information can be projected and output in 2D, 3D, hologram, or the like. As a result, airport users can easily check their flight information anywhere in the airport.

도 1은 본 발명의 일 실시예에 의한 공항 로봇의 하드웨어 구성을 도시한 블록도이다.
도 2는 본 발명의 다른 일 실시예에 의한 공항 로봇의 마이컴 및 AP의 구성을 자세하게 도시한 도면이다.
도 3은 본 발명의 실시 예에 따른 공항 로봇 시스템의 구조를 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 의한 안내 로봇이 2D 이미지를 이용하여 길 안내 서비스를 제공하는 일 예를 설명하기 위한 도면이다.
도 5 및 도 6은 본 발명의 일 실시예에 의한 안내 로봇이 홀로그램 이미지를 이용하여 길 안내 서비스를 제공하는 다른 일 예를 설명하기 위한 도면들이다.
도 7은 본 발명의 일 실시예에 의한 안내 로봇이 길 안내 동행 서비스를 제공하는 일 예를 설명하기 위한 도면이다.
도 8 내지 도 11은 본 발명의 일 실시예에 의한 안내 로봇이 cctv 영상 데이터를 이용하여 길 안내 서비스를 제공하는 다양한 실시예들을 설명하기 위한 도면들이다.
도 12는 본 발명의 일 실시예에 의한 안내 로봇이 광고 이미지를 통해 자신의 위치를 표시하는 일 예를 설명하기 위한 도면이다.
도 13 및 도 14는 본 발명의 일 실시예에 의한 안내 로봇이 주변 사용자를 감지하여 자동으로 관련 컨텐츠를 제공하는 일 예를 설명하기 위한 도면들이다.
도 15 및 도 16은 본 발명의 일 실시예에 의한 안내 로봇이 탑승 티켓 스캔을 통해 다양한 안내 서비스를 제공하는 실시예들을 설명하기 위한 도면들이다.
도 17 내지 도 20은 본 발명의 일 실시예에 의한 안내 로봇이 공항 이용객들에게 가상 이미지 홀로그램을 제공하는 일 예를 설명하기 위한 도면들이다.
도 21 내지 도 23은 본 발명의 일 실시예에 의한 안내 로봇이 공항 이용객들에게 가상 이미지 홀로그램을 제공하는 다른 일 예를 설명하기 위한 도면들이다.
도 24는 본 발명의 일 실시예에 의한 공항용 안내 로봇의 구성을 블록도로 도시한 도면이다.
1 is a block diagram showing a hardware configuration of an airport robot according to an embodiment of the present invention.
FIG. 2 is a detailed view showing the configuration of a micom and AP of an airport robot according to another embodiment of the present invention.
3 is a view for explaining the structure of an airport robot system according to an embodiment of the present invention.
4 is a view for explaining an example in which a guide robot according to an embodiment of the present invention provides a route guidance service using 2D images.
5 and 6 are views for explaining another example in which the guide robot according to an embodiment of the present invention provides a route guidance service using a hologram image.
7 is a view for explaining an example in which a guide robot according to an embodiment of the present invention provides a route guidance accompanying service.
8 to 11 are diagrams for explaining various embodiments in which a guide robot according to an embodiment of the present invention provides a route guidance service using cctv image data.
FIG. 12 is a view for explaining an example in which a guide robot according to an embodiment of the present invention displays its position through an advertisement image.
13 and 14 are views for explaining an example in which a guide robot according to an embodiment of the present invention senses a surrounding user and automatically provides related contents.
15 and 16 are views for explaining embodiments in which a guide robot according to an embodiment of the present invention provides various guidance services through a boarding ticket scan.
17 to 20 are diagrams for explaining an example in which a guide robot according to an embodiment of the present invention provides a virtual image hologram to airport users.
FIGS. 21 to 23 are diagrams for explaining another example in which a guide robot according to an embodiment of the present invention provides a virtual image hologram to airport users.
24 is a block diagram showing a configuration of an airport guidance robot according to an embodiment of the present invention.

이하, 본 발명과 관련된 실시 예에 대하여 도면을 참조하여 보다 상세하게 설명한다. Hereinafter, embodiments related to the present invention will be described in detail with reference to the drawings.

이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.The suffix "module" and " part "for the components used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role.

도 1은 본 발명의 일 실시예에 의한 공항 로봇의 하드웨어 구성을 도시한 블록도이다.1 is a block diagram showing a hardware configuration of an airport robot according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명의 일 실시예에 의한 공항 로봇(100)의 하드웨어는 마이컴(Micom) 그룹과 및 AP 그룹으로 구성될 수 있다. 마이컴(110) 그룹은 마이컴(110), 전원부(120), 장애물 인식부(130) 및 주행구동부(140)을 포함할 수 있다. AP 그룹은 AP(150), 유저 인터페이스부(160), 사물 인식부(170), 위치 인식부(180) 및 LAN(190)을 포함할 수 있다. 상기 유저 인터페이스부(160)는 통신부로 명명될 수 있다.As shown in FIG. 1, the hardware of the airport robot 100 according to an embodiment of the present invention may be composed of a Micom group and an AP group. The microcomputer 110 may include a microcomputer 110, a power source 120, an obstacle recognition unit 130, and a driving unit 140. The AP group may include an AP 150, a user interface unit 160, an object recognition unit 170, a location recognition unit 180, and a LAN 190. The user interface unit 160 may be referred to as a communication unit.

마이컴(110)은 공항 로봇의 하드웨어 중 배터리 등을 포함하는 전원부(120), 각종 센서들을 포함하는 장애물 인식부(130) 및 복수 개의 모터 및 휠들을 포함하는 주행구동부(140)를 관리할 수 있다. The microcomputer 110 may manage a driving unit 120 including a battery or the like among the hardware of the airport robot, an obstacle recognizing unit 130 including various sensors, and a driving driving unit 140 including a plurality of motors and wheels .

전원부(120)는 배터리 드라이버(battery Driver, 121) 및 리튬-이온 배터리(Li-Ion Battery, 122)를 포함할 수 있다. 배터리 드라이버(121)는 리튬-이온 배터리(122)의 충전과 방전을 관리할 수 있다. 리튬-이온 배터리(122)는 공항 로봇의 구동을 위한 전원을 공급할 수 있다. 리튬-이온 배터리(122)는 24V/102A 리튬-이온 배터리 2개를 병렬로 연결하여 구성될 수 있다.The power supply unit 120 may include a battery driver 121 and a lithium-ion battery 122. The battery driver 121 can manage the charging and discharging of the lithium-ion battery 122. The lithium-ion battery 122 can supply power for driving the airport robot. The lithium-ion battery 122 can be constructed by connecting two 24V / 102A lithium-ion batteries in parallel.

장애물 인식부(130)는 IR 리모콘 수신부(131), USS(132), Cliff PSD(133), ARS(134), Bumper(135) 및 OFS(136)를 포함할 수 있다. IR 리모콘 수신부(131)는 공항 로봇을 원격 조정하기 위한 IR(Infrared) 리모콘의 신호를 수신하는 센서를 포함할 수 있다. USS(Ultrasonic sensor, 132)는 초음파 신호를 이용하여 장애물과 공항 로봇 사이의 거리를 판단하기 위한 센서를 포함할 수 있다. Cliff PSD(133)는 360도 전방향의 공항 로봇 주행 범위에서 낭떠러지 또는 절벽 등을 감지하기 위한 센서를 포함할 수 있다. ARS(Attitude Reference System, 134)는 공항 로봇의 자세를 검출할 수 있는 센서를 포함할 수 있다. ARS(134)는 공항 로봇의 회전량 검출을 위한 가속도 3축 및 자이로 3축으로 구성되는 센서를 포함할 수 있다. Bumper(135)는 공항 로봇과 장애물 사이의 충돌을 감지하는 센서를 포함할 수 있다. Bumper(135)에 포함되는 센서는 360도 범위에서 공항 로봇과 장애물 사이의 충돌을 감지할 수 있다. OFS(Optical Flow Sensor, 136)는 공항 로봇의 주행 시 헛바퀴가 도는 현상 및 다양한 바닥 면에서 공항 로봇의 주행거리를 측정할 수 있는 센서를 포함할 수 있다.The obstacle recognizing unit 130 may include an IR remote control receiver 131, a USS 132, a Cliff PSD 133, an ARS 134, a Bumper 135, and an OFS 136. The IR remote control receiving unit 131 may include a sensor for receiving a signal of an IR (infrared) remote control for remotely controlling the airport robot. USS (Ultrasonic sensor) 132 may include a sensor for determining the distance between the obstacle and the airport robot using ultrasonic signals. The Cliff PSD 133 may include sensors for detecting cliffs or cliffs in an airport robot traveling range 360 degrees in all directions. The ARS (Attitude Reference System) 134 may include a sensor capable of detecting the attitude of the airport robot. The ARS 134 may include a sensor consisting of three axes of acceleration and three axes of acceleration for detecting the amount of rotation of the airport robot. The bumper 135 may include a sensor that detects a collision between the airport robot and the obstacle. The sensor included in the bumper 135 can detect a collision between the airport robot and the obstacle in the range of 360 degrees. The OFS (Optical Flow Sensor) 136 may include a sensor for measuring the traveling state of an airport robot and a sensor for measuring the distance traveled by the airport robot on various floor surfaces.

주행구동부(140)는 모터 드라이버(Motor Drivers, 141), 휠 모터(142), 회전 모터(143), 메인 브러시 모터(144), 사이드 브러시 모터(145) 및 석션 모터 (Suction Motor, 146)를 포함할 수 있다. 모터 드라이버(141)는 공항 로봇의 주행 및 청소를 위한 휠 모터, 브러시 모터 및 석션 모터를 구동하는 역할을 수행할 수 있다. 휠 모터(142)는 공항 로봇의 주행을 위한 복수 개의 바퀴를 구동시킬 수 있다. 회전 모터(143)는 공항 로봇의 메인 바디 또는 공항 로봇의 헤드부의 좌우 회전, 상하 회전을 위해 구동되거나 공항 로봇의 바퀴의 방향 전환 또는 회전을 위하여 구동될 수 있다. 메인 브러시 모터(144)는 공항 바닥의 오물을 쓸어 올리는 브러시를 구동시킬 수 있다. 사이드 브러시 모터(145)는 공항 로봇의 바깥면 주변 영역의 오물을 쓸어 담는 브러시를 구동시킬 수 있다. 석션 모터(146)는 공항 바닥의 오물을 흡입하기 위해 구동될 수 있다.The travel driving unit 140 includes a motor driver 141, a wheel motor 142, a rotation motor 143, a main brush motor 144, a side brush motor 145 and a suction motor 146 . The motor driver 141 may serve to drive a wheel motor, a brush motor, and a suction motor for traveling and cleaning the airport robot. The wheel motor 142 may drive a plurality of wheels for driving the airport robot. The rotation motor 143 may be driven for left-right rotation, up-down rotation of the main body of the airport robot or the head portion of the airport robot, or for turning or rotating the wheels of the airport robot. The main brush motor 144 can drive a brush that scavenges dirt from the airport floor. The side brush motor 145 can drive a brush for sweeping dirt in the area around the outer surface of the airport robot. The suction motor 146 can be driven to suck the dirt on the airport floor.

AP(Application Processor, 150)는 공항 로봇의 하드웨어 모듈 전체 시스템을 관리하는 중앙 처리 장치로서 기능할 수 있다. AP(150)는 각종 센서들을 통해 들어온 위치 정보를 이용하여 주행을 위한 응용프로그램 구동과 사용자 입출력 정보를 마이컴(110) 측으로 전송하여 모터 등의 구동을 수행하게 할 수 있다.The AP (Application Processor) 150 can function as a central processing unit for managing the entire system of hardware modules of the airport robot. The AP 150 can drive an application program for traveling and user input / output information to the microcomputer 110 by using position information received through various sensors, thereby driving a motor or the like.

유저 인터페이스부(160)는 유저 인터페이스 프로세서(UI Processor, 161), LTE 라우터(LTE Router, 162), WIFI SSID(163), 마이크 보드(164), 바코드 리더기(165), 터치 모니터(166) 및 스피커(167)를 포함할 수 있다. 유저 인터페이스 프로세서(161)는 사용자의 입출력을 담당하는 유저 인터페이스부의 동작을 제어할 수 있다. LTE 라우터(162)는 외부로부터 필요한 정보를 수신하고 사용자에게 정보를 송신하기 위한 LTE 통신을 수행할 수 있다. WIFI SSID(163)는 WiFi의 신호 강도를 분석하여 특정 사물 또는 공항 로봇의 위치 인식을 수행할 수 있다. 마이크 보드(164)는 복수 개의 마이크 신호를 입력 받아 음성 신호를 디지털 신호인 음성 데이터로 처리하고, 음성 신호의 방향 및 해당 음성 신호를 분석할 수 있다. 바코드 리더기(165)는 공항에서 사용되는 복수 개의 티켓에 기재된 바코드 정보를 리드할 수 있다. 터치 모니터(166)는 사용자의 입력을 수신하기 위해 구성된 터치 패널 및 출력 정보를 표시하기 위한 모니터를 포함할 수 있다. 스피커(167)는 사용자에게 특정 정보를 음성으로 알려주는 역할을 수행할 수 있다.The user interface unit 160 includes a user interface processor 161, an LTE router 162, a WIFI SSID 163, a microphone board 164, a barcode reader 165, a touch monitor 166, And a speaker 167. The user interface processor 161 can control the operation of the user interface unit responsible for user input and output. The LTE router 162 can receive the necessary information from the outside and can perform LTE communication for transmitting information to the user. The WIFI SSID 163 can perform position recognition of a specific object or an airport robot by analyzing the signal strength of WiFi. The microphone board 164 receives a plurality of microphone signals, processes the voice signal into voice data, which is a digital signal, and analyzes the direction of the voice signal and the voice signal. The barcode reader 165 can read the barcode information written in the plurality of tickets used in the airport. The touch monitor 166 may include a touch panel configured to receive user input and a monitor for displaying output information. The speaker 167 can play a role of notifying the user of specific information by voice.

사물인식부(170)는 2D 카메라(171), RGBD 카메라(172) 및 인식 데이터 처리 모듈(173)를 포함할 수 있다. 2D 카메라(171)는 2차원 영상을 기반으로 사람 또는 사물을 인식하기 위한 센서일 수 있다. RGBD 카메라(Red, Green, Blue, Distance, 172)로서, RGBD 센서들을 갖는 카메라 또는 다른 유사한 3D 이미징 디바이스들로부터 획득되는 깊이(Depth) 데이터를 갖는 캡처된 이미지들을 이용하여 사람 또는 사물을 검출하기 위한 센서일 수 있다. 인식 데이터 처리 모듈(173)은 2D 카메라(171) 및 RGBD 카메라(172)로부터 획득된 2D 이미지/영상 또는 3D 이미지/영상 등의 신호를 처리하여 사람 또는 사물을 인식할 수 있다.The object recognition unit 170 may include a 2D camera 171, an RGBD camera 172, and a recognition data processing module 173. The 2D camera 171 may be a sensor for recognizing a person or an object based on a two-dimensional image. For detecting a person or object using captured images having depth data obtained from a camera having RGBD sensors or other similar 3D imaging devices as RGBD cameras (Red, Green, Blue, Distance, 172) Sensor. The recognition data processing module 173 can process a signal such as a 2D image / image or 3D image / image obtained from the 2D camera 171 and the RGBD camera 172 to recognize a person or an object.

위치인식부(180)는 스테레오 보드(Stereo B/D, 181), 라이더(Lidar, 182) 및 SLAM 카메라(183)를 포함할 수 있다. SLAM 카메라(Simultaneous Localization And Mapping 카메라, 183)는 동시간 위치 추적 및 지도 작성 기술을 구현할 수 있다. 공항 로봇은 SLAM 카메라(183)를 이용하여 주변 환경 정보를 검출하고 얻어진 정보를 가공하여 임무 수행 공간에 대응되는 지도를 작성함과 동시에 자신의 절대 위치를 추정할 수 있다. 라이더(Light Detection and Ranging : Lidar, 182)는 레이저 레이더로서, 레이저 빔을 조사하고 에어로졸에 의해 흡수 혹은 산란된 빛 중 후방산란된 빛을 수집, 분석하여 위치 인식을 수행하는 센서일 수 있다. 스테레오 보드(181)는 라이더(182) 및 SLAM 카메라(183) 등으로부터 수집되는 센싱 데이터를 처리 및 가공하여 공항 로봇의 위치 인식과 장애물 인식을 위한 데이터 관리를 담당할 수 있다.The position recognition unit 180 may include a stereo board 181, a lidar 182, and a SLAM camera 183. A SLAM camera (Simultaneous Localization And Mapping camera, 183) can implement simultaneous location tracking and mapping techniques. The airport robot can detect the surrounding information by using the SLAM camera 183 and process the obtained information to create a map corresponding to the task execution space and estimate its own absolute position. Light Detection and Ranging (Lidar) 182 is a laser radar, which can be a sensor that irradiates a laser beam and collects and analyzes backscattered light among light absorbed or scattered by an aerosol to perform position recognition. The stereo board 181 processes and processes sensing data collected from the rider 182 and the SLAM camera 183 to manage the data for recognition of the position of an airport robot and recognition of obstacles.

랜(LAN, 190)은 사용자 입출력 관련 유저 인터페이스 프로세서(161), 인식 데이터 처리 모듈(173), 스테레오 보드(181) 및 AP(150)와 통신을 수행할 수 있다. The LAN 190 may communicate with the user input / output related user interface processor 161, the recognition data processing module 173, the stereo board 181 and the AP 150.

도 2는 본 발명의 다른 일 실시예에 의한 공항 로봇의 마이컴 및 AP의 구성을 자세하게 도시한 도면이다.FIG. 2 is a detailed view showing the configuration of a micom and AP of an airport robot according to another embodiment of the present invention.

도 2에 도시된 바와 같이, 공항 로봇의 인식 및 행동을 제어하기 위해서 마이컴(210)과 AP(220)는 다양한 실시예로 구현될 수 있다. As shown in FIG. 2, the microcomputer 210 and the AP 220 may be implemented in various embodiments to control the recognition and behavior of the airport robot.

일 예로서, 마이컴(210)은 데이터 액세스 서비스 모듈(Data Access Service Module, 215)를 포함할 수 있다. 데이터 액세스 서비스 모듈(215)은 데이터 획득 모듈(Data acquisition module, 211), 이머전시 모듈(Emergency module, 212), 모터 드라이버 모듈(Motor driver module, 213) 및 배터리 매니저 모듈(Battery manager module, 214)을 포함할 수 있다. 데이터 획득 모듈(211)은 공항 로봇에 포함된 복수 개의 센서로부터 센싱된 데이터를 취득하여 데이터 액세스 서비스 모듈(215)로 전달할 수 있다. 이머전시 모듈(212)은 공항 로봇의 이상 상태를 감지할 수 있는 모듈로서, 공항 로봇이 기 정해진 타입의 행동을 수행하는 경우에 이머전시 모듈(212)은 공항 로봇이 이상 상태에 진입했음을 감지할 수 있다. 모터 드라이버 모듈(213)은 공항 로봇의 주행 및 청소를 위한 휠, 브러시, 석션 모터의 구동 제어를 관리할 수 있다. 배터리 매니저 모듈(214)은 도 1의 리튬-이온 배터리(122)의 충전과 방전을 담당하고, 공항 로봇의 배터리 상태를 데이터 액세스 서비스 모듈(215)에 전달할 수 있다.As one example, the microcomputer 210 may include a data access service module 215. The data access service module 215 includes a data acquisition module 211, an emergency module 212, a motor driver module 213 and a battery manager module 214, . ≪ / RTI > The data acquisition module 211 can acquire sensed data from a plurality of sensors included in the airport robot and transmit the sensed data to the data access service module 215. The emergency module 212 is a module capable of detecting an abnormal state of the airport robot. When the airport robot performs a predetermined type of action, the emergency module 212 detects that the airport robot has entered an abnormal state . The motor driver module 213 can manage driving control of a wheel, a brush, and a suction motor for driving and cleaning the airport robot. The battery manager module 214 may charge and discharge the lithium-ion battery 122 of FIG. 1 and may transmit the battery state of the airport robot to the data access service module 215.

AP(220)는 각종 카메라 및 센서들과 사용자 입력 등을 수신하고, 인식 가공하여 공항 로봇의 동작을 제어하는 역할을 수행할 수 있다. 인터랙션 모듈(221)은 인식 데이터 처리 모듈(173)로부터 수신하는 인식 데이터와 유저 인터페이스 모듈(222)로부터 수신하는 사용자 입력을 종합하여, 사용자와 공항 로봇이 상호 교류할 수 있는 소프트웨어(Software)를 총괄하는 모듈일 수 있다. 유저 인터페이스 모듈(222)은 공항 로봇의 현재 상항 및 조작/정보 제공 등을 위한 모니터인 디스플레이부(223)와 키(key), 터치 스크린, 리더기 등과 같은 사용자의 근거리 명령을 수신하거나, 공항 로봇을 원격 조정을 위한 IR 리모콘의 신호와 같은 원거리 신호를 수신하거나, 마이크 또는 바코드 리더기 등으로부터 사용자의 입력 신호를 수신하는 사용자 입력부(224)로부터 수신되는 사용자 입력을 관리할 수 있다. 적어도 하나 이상의 사용자 입력이 수신되면, 유저 인터페이스 모듈(222)은 상태 관리 모듈(State Machine module, 225)로 사용자 입력 정보를 전달할 수 있다. 사용자 입력 정보를 수신한 상태 관리 모듈(225)은 공항 로봇의 전체 상태를 관리하고, 사용자 입력 대응하는 적절한 명령을 내릴 수 있다. 플래닝 모듈(226)은 상태 관리 모듈(225)로부터 전달받은 명령에 따라서 공항 로봇의 특정 동작을 위한 시작과 종료 시점/행동을 판단하고, 공항 로봇이 어느 경로로 이동해야 하는지를 계산할 수 있다. 네비게이션 모듈(227)은 공항 로봇의 주행 전반을 담당하는 것으로서, 플래닝 모듈(226)에서 계산된 주행 루트에 따라서 공항 로봇이 주행하게 할 수 있다. 모션 모듈(228)은 주행 이외에 기본적인 공항 로봇의 동작을 수행하도록 할 수 있다.The AP 220 receives various types of cameras and sensors, user input, etc., and performs recognition and processing to control the operation of the airport robot. The interaction module 221 synthesizes the recognition data received from the recognition data processing module 173 and the user input received from the user interface module 222 to collectively manage software that allows the user and the airport robot to interact with each other Lt; / RTI > The user interface module 222 receives a user's close command such as a display unit 223, a key, a touch screen, a reader, or the like, which is a monitor for present state of the airport robot and operation / Such as a remote control signal for remote control, or a user input received from a user input 224 that receives a user's input signal from a microphone or bar code reader. When at least one user input is received, the user interface module 222 may pass user input information to a state machine module 225. The state management module 225 receiving the user input information can manage the entire state of the airport robot and issue an appropriate command corresponding to the user input. The planning module 226 can determine the start and end points / actions for the specific operation of the airport robot in accordance with the command received from the state management module 225, and calculate the route to which the airport robot should move. The navigation module 227 is responsible for the overall running of the airport robot, and may cause the airport robot to travel according to the travel route calculated by the planning module 226. [ The motion module 228 can perform the operation of the basic airport robot in addition to the traveling.

또한, 본 발명의 다른 일 실시예에 의한 공항 로봇은 위치 인식부(230)를 포함할 수 있다. 위치 인식부(230)는 상대 위치 인식부(231)와 절대 위치 인식부(234)를 포함할 수 있다. 상대 위치 인식부(231)는 RGM mono(232) 센서를 통해 공항 로봇의 이동량을 보정하고, 일정한 시간 동안 공항 로봇의 이동량을 계산할 수 있고, LiDAR(233)를 통해 현재 공항 로봇의 주변 환경을 인식할 수 있다. 절대 위치 인식부(234)는 Wifi SSID(235) 및 UWB(236)을 포함할 수 있다. Wifi SSID(235)는 공항 로봇의 절대 위치 인식을 위한 UWB 센서 모듈로서, Wifi SSID 감지를 통해 현재 위치를 추정하기 위한 WIFI 모듈이다. Wifi SSID(235)는 Wifi의 신호 강도를 분석하여 공항 로봇의 위치를 인식할 수 있다. UWB(236)는 발신부와 수신부 사이의 거리를 계산하여 공항 로봇의 절대적 위치를 센싱할 수 있다.In addition, the airport robot according to another embodiment of the present invention may include a position recognition unit 230. [ The position recognition unit 230 may include a relative position recognition unit 231 and an absolute position recognition unit 234. [ The relative position recognition unit 231 can calculate the amount of movement of the airport robot for a predetermined period of time by correcting the amount of movement of the airport robot through the RGM mono sensor 232 and recognize the current environment of the airport robot through the LiDAR 233 can do. The absolute position recognition unit 234 may include a Wifi SSID 235 and a UWB 236. [ The Wifi SSID 235 is a UWB sensor module for recognizing the absolute position of the airport robot, and is a WIFI module for estimating the current position by detecting the Wifi SSID. The Wifi SSID 235 can recognize the position of the airport robot by analyzing the signal strength of the Wifi. The UWB 236 can calculate the distance between the transmitter and the receiver and sense the absolute position of the airport robot.

또한, 본 발명의 다른 일 실시예에 의한 공항 로봇은 맵 관리 모듈(240)을 포함할 수 있다. 맵 관리 모듈(240)은 그리드 모듈(Grid module, 241), 패스 플래닝 모듈(Path Planning module, 242) 및 맵 분할 모듈(243)을 포함할 수 있다. 그리드 모듈(241)은 공항 로봇이 SLAM 카메라를 통해 생성한 격자 형태의 지도 혹은 사전에 미리 공항 로봇에 입력된 위치 인식을 위한 주변환경의 지도 데이터를 관리할 수 있다. 패스 플래닝 모듈(242)은 복수 개의 공항 로봇들 사이의 협업을 위한 맵 구분에서, 공항 로봇들의 주행 경로 계산을 담당할 수 있다. 또한, 패스 플래닝 모듈(242)은 공항 로봇 한대가 동작하는 환경에서 공항 로봇이 이동해야 할 주행 경로도 계산할 수 있다. 맵 분할 모듈(243)은 복수 개의 공항 로봇들이 각자 담당해야할 구역을 실시간으로 계산할 수 있다. In addition, the airport robot according to another embodiment of the present invention may include a map management module 240. The map management module 240 may include a grid module 241, a path planning module 242, and a map partitioning module 243. The grid module 241 can manage a grid-shaped map generated by the airport robot through the SLAM camera, or map data of the surrounding environment for the position recognition input to the airport robot in advance. The path planning module 242 can take charge of the travel path calculation of the airport robots in the map division for cooperation among the plurality of airport robots. In addition, the path planning module 242 can calculate a traveling route through which the airport robot should move in an environment where one airport robot operates. The map division module 243 can calculate the area to be managed by the plurality of airport robots in real time.

위치 인식부(230) 및 맵 관리 모듈(240)로부터 센싱되고 계산된 데이터들은 다시 상태 관리 모듈(225)로 전달될 수 있다. 상태 관리 모듈(225)은 위치 인식부(230) 및 맵 관리 모듈(240)로부터 센싱되고 계산된 데이터들에 기초하여, 공항 로봇의 동작을 제어하도록 플래닝 모듈(226)에 명령을 내릴 수 있다.The data sensed and calculated from the position recognition unit 230 and the map management module 240 may be transmitted to the state management module 225 again. The state management module 225 can command the planning module 226 to control the operation of the airport robot based on the data sensed and calculated from the position recognition module 230 and the map management module 240. [

다음으로 도 3은 본 발명의 실시 예에 따른 공항 로봇 시스템의 구조를 설명하기 위한 도면이다.3 is a view for explaining a structure of an airport robot system according to an embodiment of the present invention.

본 발명의 일 실시 예에 따른 공항 로봇 시스템은 이동 단말기(310), 서버(320), 공항 로봇(300) 및 카메라(330)를 포함할 수 있다.The airport robot system according to an embodiment of the present invention may include a mobile terminal 310, a server 320, an airport robot 300, and a camera 330.

이동 단말기(310)는 공항 내 서버(320)와 데이터를 송수신할 수 있다. 예를 들어, 이동 단말기(310)는 서버(320)로부터 비행 시간 스케쥴, 공항 지도 등과 같은 공항 관련 데이터를 수신할 수 있다. 사용자는 이동 단말기(310)를 통해 공항에서 필요한 정보를 서버(320)로부터 수신하여 얻을 수 있다. 또한, 이동 단말기(310)는 서버(320)로 사진이나 동영상, 메시지 등과 같은 데이터를 전송할 수 있다. 예를 들어, 사용자는 미아 사진을 서버(320)로 전송하여 미아 접수를 하거나, 공항 내 청소가 필요한 구역의 사진을 카메라로 촬영하여 서버(320)로 전송함으로써 해당 구역의 청소를 요청할 수 있다.The mobile terminal 310 can transmit and receive data to and from the server 320 in the airport. For example, the mobile terminal 310 may receive airport-related data such as flight time schedules, airport maps, and the like from the server 320. The user can obtain the necessary information from the server 320 through the mobile terminal 310 and obtain it. In addition, the mobile terminal 310 can transmit data such as a photograph, a moving picture, a message, and the like to the server 320. For example, the user may request the cleaning of a corresponding area by sending a photograph of a missing person to the server 320, receiving a photograph of the missing person, photographing a photograph of the area requiring cleaning in the airport, and transmitting the photograph to the server 320.

또한, 이동 단말기(310)는 공항 로봇(300)과 데이터를 송수신할 수 있다. In addition, the mobile terminal 310 can exchange data with the airport robot 300.

예를 들어, 이동 단말기(310)는 공항 로봇(300)을 호출하는 신호나 특정 동작을 수행하도록 명령하는 신호 또는 정보 요청 신호 등을 공항 로봇(300)으로 전송할 수 있다. 공항 로봇(300)은 이동 단말기(310)로부터 수신된 호출 신호에 응답하여 이동 단말기(310)의 위치로 이동하거나 명령 신호에 대응하는 동작을 수행할 수 있다. 또는 공항 로봇(300)은 정보 요청 신호에 대응하는 데이터를 각 사용자의 이동 단말기(310)로 전송할 수 있다.For example, the mobile terminal 310 may transmit a signal for calling the airport robot 300, a signal for requesting to perform a specific operation or an information request signal to the airport robot 300. The airport robot 300 may move to the position of the mobile terminal 310 or perform an operation corresponding to the command signal in response to the paging signal received from the mobile terminal 310. [ Or the airport robot 300 may transmit the data corresponding to the information request signal to the mobile terminal 310 of each user.

다음으로, 공항 로봇(300)은 공항 내에서 순찰, 안내, 청소, 방역, 운반 등의 역할을 할 수 있다.Next, the airport robot 300 can perform patrol, guidance, cleaning, disinfection, and transportation within the airport.

공항 로봇(300)은 이동 단말기(310) 또는 서버(320)와 신호를 송수신할 수 있다. 예를 들어, 공항 로봇(300)은 서버(320)와 공항 내 상황 정보 등을 포함한 신호를 송수신할 수 있다. 또한, 공항 로봇(300)은 공항 내 카메라(330)로부터 공항의 각 구역들을 촬영한 영상 정보를 수신할 수 있다. 따라서 공항 로봇(300)은 공항 로봇(300)이 촬영한 영상 정보 및 카메라(330)로부터 수신한 영상 정보를 종합하여 공항의 상황을 모니터링할 수 있다.The airport robot 300 can transmit / receive signals to / from the mobile terminal 310 or the server 320. For example, the airport robot 300 can transmit and receive signals including the server 320 and the information on the situation in the airport. In addition, the airport robot 300 can receive image information of each area of the airport from the camera 330 in the airport. Therefore, the airport robot 300 can monitor the status of the airport by synthesizing the image information captured by the airport robot 300 and the image information received from the camera 330.

공항 로봇(300)은 사용자로부터 직접 명령을 수신할 수 있다. 예를 들어, 공항 로봇(300)에 구비된 디스플레이부를 터치하는 입력 또는 음성 입력 등을 통해 사용자로부터 명령을 직접 수신할 수 있다. 공항 로봇(300)은 사용자, 이동 단말기(310) 또는 서버(320) 등으로부터 수신된 명령에 따라 순찰, 안내, 청소 등의 동작을 수행할 수 있다.The airport robot 300 can receive commands directly from the user. For example, it is possible to directly receive a command from a user through an input or a voice input touching a display unit provided in the airport robot 300. The airport robot 300 may perform operations such as patrol, guidance, and cleaning according to a command received from the user, the mobile terminal 310, or the server 320 and the like.

다음으로 서버(320)는 이동 단말기(310), 공항 로봇(300), 카메라(330)로부터 정보를 수신할 수 있다. 서버(320)는 각 장치들로부터 수신된 정보들을 통합하여 저장 및 관리할 수 있다. 서버(320)는 저장된 정보들을 이동 단말기(310) 또는 공항 로봇(300)에 전송할 수 있다. 또한, 서버(320)는 공항에 배치된 복수의 공항 로봇(300)들 각각에 대한 명령 신호를 전송할 수 있다.Next, the server 320 can receive information from the mobile terminal 310, the airport robot 300, and the camera 330. The server 320 may collectively store and manage the information received from the respective devices. The server 320 may transmit the stored information to the mobile terminal 310 or the airport robot 300. In addition, the server 320 may transmit a command signal to each of a plurality of airport robots 300 disposed at an airport.

카메라(330)는 공항 내에 설치된 카메라를 포함할 수 있다. 예를 들어, 카메라(330)는 공항 내에 설치된 복수 개의 CCTV(closed circuit television) 카메라, 적외선 열감지 카메라 등을 모두 포함할 수 있다. 카메라(330)는 촬영된 영상을 서버(320) 또는 공항 로봇(300)에 전송할 수 있다.The camera 330 may include a camera installed in the airport. For example, the camera 330 may include a plurality of closed circuit television (CCTV) cameras installed in an airport, an infrared heat sensing camera, and the like. The camera 330 may transmit the photographed image to the server 320 or the airport robot 300.

도 4는 본 발명의 일 실시예에 의한 안내 로봇이 2D 이미지를 이용하여 길 안내 서비스를 제공하는 일 예를 설명하기 위한 도면이다.4 is a view for explaining an example in which a guide robot according to an embodiment of the present invention provides a route guidance service using 2D images.

본 발명의 일 실시예에 의한 공항용 안내 로봇(400)은 공항 내에서 일정 지역을 순회하면서 길 안내 서비스를 제공할 수 있다. 또한, 안내 로봇(400)은 사용자(410)가 요청한 목적지까지 현재 위치로부터의 길 안내 서비스를 제공할 수 있다. 또한, 안내 로봇(400)은 음성 출력 방식을 통하여 사용자(410)가 요청한 목적지까지 현재 위치로부터의 길 안내 서비스를 제공할 수 있다. 또한, 안내 로봇(400)은 사진, 그림, 텍스트 등의 2D 이미지(420) 출력 방식을 통하여 사용자(410)가 요청한 목적지까지 현재 위치로부터의 길 안내 서비스를 제공할 수 있다.The airport guidance robot 400 according to an embodiment of the present invention can provide a route guidance service while circulating within a certain area in an airport. In addition, the guide robot 400 can provide the guidance service from the current position to the destination requested by the user 410. [ Also, the guide robot 400 can provide the route guidance service from the current position to the destination requested by the user 410 through the voice output method. In addition, the guide robot 400 can provide the route guidance service from the current location to the destination requested by the user 410 through the 2D image 420 output method such as photograph, picture, and text.

예를 들어 도 4에 도시된 바와 같이, 사용자(410)는 안내 로봇(400)에게 길 안내 서비스를 요청 할 수 있다. 그리고, 안내 로봇(400)은 사용자(410)에게 현재 위치로부터 목적지까지 가는 방향 및 거리에 대한 정보를 2D 이미지(420)를 출력할 수 있다. 또한, 안내 로봇(400)은 길 안내 서비스를 위한 2D 이미지(420)를 공항 바닥에 투사할 수 있다. 또한, 안내 로봇(400)은 차량용 네비게이션(navigation)과 유사하게 방향을 나타내는 2D 이미지(420)와 함께 텍스트 데이터를 함께 투사할 수 있다. 또한, 안내 로봇(400)은 현재 위치로부터 사용자(410)가 요청한 목적지까지 이동 경로를 순차적으로 시간 간격을 두고 2D 이미지(420)로 투사할 수 있다. 또한 현재 위치로부터 사용자(410)가 요청한 목적지까지 복수 개의 이동 경로가 존재하는 경우, 안내 로봇(400)은 복수 개의 이동 경로를 시간 간격을 두고 순차적으로 2D 이미지(420)를 통해 출력하여 길 안내 서비스를 제공할 수 있다.For example, as shown in FIG. 4, the user 410 may request the guidance robot 400 for a guidance service. The guide robot 400 can output the 2D image 420 to the user 410 with information on the direction and distance from the current position to the destination. In addition, the guidance robot 400 can project the 2D image 420 for the guidance service to the airport floor. Further, the guidance robot 400 can project the text data together with the 2D image 420 indicating the direction similar to the navigation for the vehicle. In addition, the guide robot 400 may project the movement path sequentially from the current position to the destination requested by the user 410 at a time interval to the 2D image 420. [ When there are a plurality of movement paths from the current position to the destination requested by the user 410, the guide robot 400 sequentially outputs the plurality of movement paths at intervals of time through the 2D image 420, Can be provided.

도 5 및 도 6은 본 발명의 일 실시예에 의한 안내 로봇이 홀로그램 이미지를 이용하여 길 안내 서비스를 제공하는 다른 일 예를 설명하기 위한 도면들이다.5 and 6 are views for explaining another example in which the guide robot according to an embodiment of the present invention provides a route guidance service using a hologram image.

본 발명의 일 실시예에 의한 공항용 안내 로봇(500)은 공항 내에서 일정 지역을 순회하면서 길 안내 서비스를 제공할 수 있다. 또한, 안내 로봇(500)은 사용자(510)가 요청한 목적지까지 현재 위치로부터의 길 안내 서비스를 제공할 수 있다. 또한, 안내 로봇(500)은 음성 출력 방식을 통하여 사용자(510)가 요청한 목적지까지 현재 위치로부터의 길 안내 서비스를 제공할 수 있다. 또한, 안내 로봇(500)은 도 5에서 설명한 바와 같이 사진, 그림, 텍스트 등의 2D 이미지 출력 방식을 통하여 사용자(510)가 요청한 목적지까지 현재 위치로부터의 길 안내 서비스를 제공할 수 있다. 뿐만 아니라, 안내 로봇(500)은 차량용 네비게이션과 유사하게 지도 이미지(520)를 출력하여 사용자에게 길 안내 서비스를 제공할 수 있다.The airport guidance robot 500 according to an embodiment of the present invention can provide a route guidance service while traveling in a certain area in an airport. In addition, the guide robot 500 can provide the guidance service from the current position to the destination requested by the user 510. Also, the guide robot 500 can provide the route guidance service from the current position to the destination requested by the user 510 through the voice output method. 5, the guide robot 500 can provide a route guidance service from a current location to a destination requested by the user 510 through a 2D image output method such as photograph, picture, and text. In addition, the guide robot 500 may output the map image 520 similar to the navigation for the vehicle to provide the user with the guidance service.

예를 들어 도5에 도시된 바와 같이, 사용자(510)는 안내 로봇(500)에게 길 안내 서비스를 요청 할 수 있다. 그리고, 안내 로봇(500)은 사용자(510)에게 현재 위치로부터 목적지까지 가는 이동 경로를 포함하는 지도 이미지(520)를 출력할 수 있다. 또한, 안내 로봇(400)은 길 안내 서비스를 위한 지도 이미지(520)를 공항 바닥에 투사할 수 있다. 또한, 안내 로봇(400)은 차량용 네비게이션(navigation)과 유사하게 최단 거리 경로, 최소 시간 경로 등 다양한 이동 경로 정보를 지도 이미지(520)에 표시할 수 있다. 또한, 안내 로봇(500)은 현재 위치로부터 사용자(510)가 요청한 목적지까지 이동 경로를 순차적으로 시간 간격을 두고 지도 이미지(520)로 투사할 수 있다. 또한, 안내 로봇(500)은 2D 이미지의 지도 뿐만 아니라 3D 이미지의 지도(520)를 출력할 수 있다. 안내 로봇(500)이 출력하는 3D 이미지 지도는 홀로그램 또는 3D 컨텐츠 일 수 있다.For example, as shown in FIG. 5, the user 510 may request the guidance robot 500 for a guidance service. Then, the guide robot 500 may output the map image 520 including the movement path from the current position to the destination to the user 510. In addition, the guide robot 400 can project the map image 520 for the route guidance service to the airport floor. Also, the guide robot 400 may display various movement route information such as the shortest distance route and the minimum time route on the map image 520, similar to navigation for a vehicle. In addition, the guide robot 500 can project the movement path sequentially from the current position to the destination requested by the user 510 at a time interval to the map image 520. [ Also, the guide robot 500 can output a map of the 3D image as well as a map of the 2D image. The 3D image map output by the guide robot 500 may be a hologram or a 3D content.

홀로그램은 물체의 표면에서 반사된 빛의 위상변화를 프린지 패턴(fringe pattern) 형태로 기록한 것이다. 종래의 아날로그 방식의 홀로그램은 레이저에서 나온 빛을 물체에 투사한 후 반사되어 홀로그램 저장 매체에 입사되는 물체파와 홀로그램 저장 매체에 직접 입사되는 기준파가 서로 간섭을 일으켜 프린지 패턴이 생성되며, 이것을 홀로그램 저장 매체에 기록하는 방법이다. 이와 같이 기록된 홀로그램 정보를 재생하기 위해서는 홀로그램 기록 과정에서 사용한 기준파를 동일한 방향으로 입사시켜 회절을 일으키게 하면 본래 물체가 있었던 위치에 물체와 동일한 홀로그램 영상이 재현된다. 한편, 디지털 홀로그램을 생성하는 경우에는 물체에 대한 물체파와 기준파의 간섭에 의한 홀로그램 프린지 패턴의 생성 원리를 컴퓨터 모델링을 통하여 계산식을 처리하게 된다. 상기 디지털 홀로그램 방식은 새로운 디지털 홀로그램 영상을 생성하기 위해 컴퓨터 계산을 통하여 재생성할 수 있으며, 광학식 홀로그램 디스플레이 방식이 아닌 프로젝션 방식으로 디지털 홀로그램 데이터를 가시화함으로써 재생된 홀로그램 영상의 크기와 시야각을 개선할 수 있다.The hologram is a recording of the phase change of the light reflected from the surface of the object in the form of a fringe pattern. Conventional analog type holograms generate hologram images by projecting light from a laser onto an object and then interfering with an object wave incident on the hologram storage medium and a reference wave incident directly onto the hologram storage medium, And recording on the medium. In order to reproduce the recorded hologram information, the reference wave used in the hologram recording process is incident in the same direction to cause the diffraction, and the same hologram image as the object is reproduced at the position where the original object was located. On the other hand, in the case of generating a digital hologram, the principle of generating the hologram fringe pattern due to the interference between the object wave and the reference wave to the object is computed through computer modeling. The digital hologram method can be reproduced by computer calculation to generate a new digital hologram image, and the size and viewing angle of the reproduced hologram image can be improved by visualizing the digital hologram data by the projection method instead of the optical hologram display method .

따라서 보다 시각적효과가 좋은 길 안내 서비스를 제공하기 위하여, 본 발명의 일 실시예에 의한 안내 로봇은 위와 같은 홀로그램, 홀로그램 영상, 홀로그램 이미지 또는 3D 컨텐츠를 출력할 수 있다.Therefore, in order to provide a route guidance service having a better visual effect, the guide robot according to an embodiment of the present invention can output the above-described hologram, hologram image, hologram image, or 3D content.

또한. 본 발명의 일 실시예에 의한 안내 로봇(500)은 사용자(510)와 인터랙션(interaction)을 수행하는 동안에는 기 정해진 위치에서 정지한 상태로 길 안내 서비스를 제공할 수 있다. 반면에, 본 발명의 다른 일 실시예에 의한 안내 로봇(600)은 사용자(610) 편의성을 증대시키기 위하여 사용자(610)가 요청한 목적지까지 동행하면서 길 안내 서비스를 제공할 수 있다. 즉, 본 발명의 다른 일 실시예에 의한 안내 로봇(600)은 홀로그램 지도(620)로 이동 경로를 표시할 뿐 만 아니라, 이동 경로에 따라 실제로 이동을 하면서 사용자(610)를 목적지까지 안내할 수 있다.Also. The guide robot 500 according to the embodiment of the present invention can provide the guidance service while the user is stationary at the predetermined position while performing the interaction with the user 510. [ Meanwhile, the guide robot 600 according to another embodiment of the present invention can provide the guidance service while traveling to the destination requested by the user 610 in order to increase the convenience of the user 610. That is, the guide robot 600 according to another embodiment of the present invention not only displays the movement route to the hologram map 620, but also guides the user 610 to the destination while actually moving according to the movement route have.

도 7은 본 발명의 일 실시예에 의한 안내 로봇이 길 안내 동행 서비스를 제공하는 일 예를 설명하기 위한 도면이다.7 is a view for explaining an example in which a guide robot according to an embodiment of the present invention provides a route guidance accompanying service.

본 발명의 일 실시예에 의한 공항용 안내 로봇(700)은 공항 내에서 일정 지역을 순회하면서 길 안내 서비스를 제공할 수 있다. 또한, 안내 로봇(700)은 사용자(710)가 요청한 목적지까지 현재 위치로부터의 길 안내 서비스를 제공할 수 있다. 또한, 안내 로봇(700)은 음성 출력 방식을 통하여 사용자(710)가 요청한 목적지까지 현재 위치로부터의 길 안내 서비스를 제공할 수 있다. 또한, 안내 로봇(700)은 도 5에서 설명한 바와 같이 사진, 그림, 텍스트 등의 2D 이미지(721, 722) 출력 방식을 통하여 사용자(710)가 요청한 목적지까지 현재 위치로부터의 길 안내 서비스를 제공할 수 있다. 뿐만 아니라, 안내 로봇(700)은 사진, 그림, 텍스트 등의 2D 이미지(721, 722) 출력함과 동시에 사용자(710)를 목적지까지 직접 안내해주는 길 안내 동행 서비스를 제공할 수 있다.The airport guidance robot 700 according to an embodiment of the present invention can provide a route guidance service while traveling through a certain area in an airport. In addition, the guide robot 700 can provide the guidance service from the current position to the destination requested by the user 710. [ Also, the guide robot 700 can provide the route guidance service from the current position to the destination requested by the user 710 through the voice output method. 5, the guide robot 700 provides the guidance service from the current position to the destination requested by the user 710 through the 2D image 721, 722 output method such as photograph, picture, and text . In addition, the guide robot 700 can output the 2D images 721 and 722 of photographs, pictures, texts and the like, and can provide a guidance service for guiding the user 710 directly to the destination.

예를 들어 도7에 도시된 바와 같이, 사용자(710)는 안내 로봇(700)에게 길 안내 서비스를 요청 할 수 있다. 그리고, 안내 로봇(700)은 사용자(710)에게 현재 위치로부터 목적지까지 가는 이동 경로를 안내하는 2D 이미지(721)를 공항 바닥 등에 출력할 수 있다. 또한, 안내 로봇(700)은 현재 위치로부터 사용자(710)가 요청한 목적지까지 이동 경로를 순차적으로 시간 간격을 두고 2D 이미지들(721, 722)을 출력할 수 있다. 또한, 안내 로봇(700)은 2D 이미지들(721, 722)을 출력함과 동시에 직접 사용자(710)를 목적지까지 안내할 수 있다. 이 경우, 안내 로봇(700)은 사용자(710)와 안내 로봇(700) 사이의 거리를 실시간으로 감지하여 일정한 거리를 유지하도록 제어될 수 있다. 또한 사용자(710)와 안내 로봇(700) 사이의 거리거 기 정해진 거리 이상 멀어지는 경우, 안내 로봇(700)은 길 안내 동행 서비스를 중지할 수 있다.For example, as shown in Fig. 7, the user 710 may request the guidance robot 700 to request the guidance service. Then, the guide robot 700 can output to the airport floor a 2D image 721 that guides the user 710 on the movement path from the current position to the destination. In addition, the guide robot 700 may output the 2D images 721 and 722 sequentially from the current position to the destination requested by the user 710 at a time interval. In addition, the guide robot 700 can direct the user 710 to the destination simultaneously with outputting the 2D images 721 and 722. [ In this case, the guide robot 700 can be controlled to detect a distance between the user 710 and the guide robot 700 in real time and maintain a constant distance. Further, when the distance between the user 710 and the guide robot 700 is more than a predetermined distance, the guide robot 700 can stop the road guide companion service.

도 8 내지 도 11은 본 발명의 일 실시예에 의한 안내 로봇이 cctv 영상 데이터를 이용하여 길 안내 서비스를 제공하는 다양한 실시예들을 설명하기 위한 도면들이다.8 to 11 are diagrams for explaining various embodiments in which a guide robot according to an embodiment of the present invention provides a route guidance service using cctv image data.

도 8에 도시된 바와 같이, 공항 내에는 복수 개의 CCTV(811, 812, 813)들이 랜덤하게 배치될 수 있다. 복수 개의 CCTV(811, 812, 813)들은 공항 내 상황을 실시간으로 촬영할 수 있다. 복수 개의 CCTV(811, 812, 813)들은 실시간 촬영 영상 데이터를 서버에 전송할 수 있다. 또한, 복수 개의 CCTV(811, 812, 813)들은 실시간 촬영 영상 데이터를 적어도 하나 이상의 공항용 로봇(801, 802, 803, 804, 805, 806)들에게 전송할 수 있다. 적어도 하나 이상의 공항용 로봇(801, 802, 803, 804, 805, 806)들은 CCTV로부터 전달받은 영상 데이터를 이용하여 공항 이용객에게 다양한 서비스를 제공할 수 있다.As shown in FIG. 8, a plurality of CCTVs 811, 812 and 813 may be randomly arranged in an airport. The plurality of CCTVs 811, 812 and 813 can photograph the situation in the airport in real time. The plurality of CCTVs 811, 812 and 813 can transmit real-time image data to the server. The plurality of CCTVs 811, 812 and 813 can transmit real-time photographic image data to at least one or more airport robots 801, 802, 803, 804, 805 and 806. At least one or more of the airport robots 801, 802, 803, 804, 805, and 806 may provide various services to airport users using the image data received from the CCTV.

예를 들어 도 9에 도시된 바와 같이, 사용자(910)는 안내 로봇(900)에게 특정 목적지까지로의 길 안내 서비스를 요청할 수 있다. 사용자(910)로부터 길 안내 서비스 요청을 받은 안내 로봇(900)은 현재 위치에서 목적지까지로의 이동 경로를 계산할 수 있다. 그리고 안내 로봇(900)은 계산된 이동 경로를 촬영하는 적어도 하나 이상의 CCTV를 탐색할 수 있다. 그리고 안내 로봇(900)은 탐색 결과에 따라 적어도 하나 이상의 CCTV에게 실시간 영상 데이터를 요청할 수 있다. 또는, 안내 로봇(900)은 서버에게 계산된 이동 경로를 촬영하는 실시간 영상 데이터를 요청할 수 있다. 그리고 안내 로봇(900)은 적어도 하나 이상의 CCTV 또는 서버로부터 실시간 영상 데이터를 수신할 수 있다. 그리고 안내 로봇(900)은 수신한 영상 데이터에 부가하기 위한 사용자(910)이미지를 촬영할 수 있다. 그리고 안내 로봇(900)은 촬영한 사용자(910) 이미지 및 이동 경로를 실시간 영상 데이터에 믹싱(mixing)할 수 있다. 그리고 안내 로봇(900)은 믹싱된 영상 데이터(920)를 바닥에 투사할 수 있다. 또는 안내 로봇(900)은 믹싱된 영상 데이터(920)를 홀로그램 컨텐츠 출력 방식을 이용하여 공중에 투사할 수 있다. 또한, 공항 로봇(900)은 믹싱된 영상 데이터에 사용자(910)가 인지하기 쉽도록 하이라이트(925) 처리할 수 있다. For example, as shown in FIG. 9, the user 910 may request the guidance robot 900 to provide guidance to a specific destination. The guide robot 900 receiving the route guidance service request from the user 910 can calculate the movement route from the current position to the destination. Then, the guide robot 900 can search at least one CCTV for photographing the calculated movement route. The guide robot 900 can request real-time image data to at least one CCTV according to the search result. Alternatively, the guide robot 900 may request the server to provide real-time image data for shooting the calculated travel route. The guide robot 900 can receive real-time image data from at least one CCTV or server. The guide robot 900 can photograph an image of the user 910 to be added to the received image data. Then, the guide robot 900 can mix the images of the user 910 and the moving route with real-time image data. The guide robot 900 can project the mixed image data 920 on the floor. Or the guide robot 900 may project the mixed image data 920 into the air using a hologram content output method. Further, the airport robot 900 may highlight 925 the mixed image data so that the user 910 can easily recognize the mixed image data.

또한, 공항 로봇(900)은 믹싱된 영상 데이터(920)를 2D 또는 3D 이미지 형태로 투사하는 동안 광고 이미지(930)를 디스플레이부에 출력할 수 있다. 즉 도 10에 도시된 바와 같이, 공항 로봇(900)은 믹싱된 영상 데이터(920)를 바닥 또는 공중에 출력하는 동안 기 정해진 광고 이미지(930) 또는 광고 영상을 안내 로봇(900)의 디스플레이부에 출력할 수도 있다.In addition, the airport robot 900 may output the advertisement image 930 to the display unit while projecting the mixed image data 920 in the form of a 2D or 3D image. 10, the airport robot 900 transmits the predetermined advertisement image 930 or the advertisement image to the display unit of the guide robot 900 while outputting the mixed image data 920 to the floor or the air. Output.

또한 도 11에 도시된 바와 같이, 공항 로봇(900)은 광고 이미지(930)를 공항 바닥에 2D 이미지 형태로 투사하거나, 공중에 3D 이미지 형태로 투사할 수 있다. 또한, 공항 로봇(900)은 믹싱된 영상 데이터(920)를 디스플레이부의 제1 영역에 출력할 수 있다. 또한, 공항 로봇(900)은 믹싱된 영상 데이터에 사용자(910)가 인지하기 쉽도록 하이라이트(925) 처리할 수 있다. 또한. 공항 로봇(900)은 길 안내 서비스를 위한 안내 메시지(940)를 디스플레이부의 제2 영역에 출력할 수 있다. 따라서, 공항 로봇(900)은 믹싱된 영상 데이터(920) 뿐만 아니라 안내 메시지(940)를 동시에 디스플레이부에 출력함으로써 사용자가 길 안내 정보를 더욱 쉽게 이해할 수 있도록 컨텐츠를 제공할 수 있다.11, the airport robot 900 may project the advertisement image 930 in the form of a 2D image on the airport floor, or in the form of a 3D image in the air. Also, the airport robot 900 can output the mixed image data 920 to the first area of the display unit. Further, the airport robot 900 may highlight 925 the mixed image data so that the user 910 can easily recognize the mixed image data. Also. The airport robot 900 may output the guidance message 940 for the route guidance service to the second area of the display unit. Accordingly, the airport robot 900 can simultaneously output the mixed video data 920 and the guide message 940 to the display unit, thereby providing the contents so that the user can understand the navigation information more easily.

도 12는 본 발명의 일 실시예에 의한 안내 로봇이 광고 이미지를 통해 자신의 위치를 표시하는 일 예를 설명하기 위한 도면이다.FIG. 12 is a view for explaining an example in which a guide robot according to an embodiment of the present invention displays its position through an advertisement image.

도 12에 도시된 바와 같이, 본 발명의 일 실시예에 의한 안내 로봇(1201, 1202)은 서버로부터 수신하는 적어도 하나 이상의 광고 이미지(1211, 1212)를 3D 컨텐츠 형태로 공중에 투사할 수 있다. 따라서, 공항 내 사용자들은 공중에 투사된 광고 이미지(1211, 1212)를 통해 해당 공항용 로봇이 안내 로봇임을 쉽게 인지할 수 있다. 따라서, 공항 내 사용자들은 공중에 투사된 광고 이미지(1211, 1212)를 통해 안내 로봇의 위치를 쉽게 파악할 수 있다. 또한, 광고 이미지(1211, 1212)는 서버에서 기 정해진 주기마다 업데이트되어 안내 로봇(1201, 1202)에게 전송될 수 있다. 도 12와 같이 설계함으로써, 길 안내 서비스를 제공받고자 하는 사용자 편의성이 증대되는 기술적 효과가 있다.As shown in FIG. 12, the guide robots 1201 and 1202 according to an embodiment of the present invention can project at least one or more advertisement images 1211 and 1212 received from a server into the air in the form of 3D contents. Therefore, users in the airport can easily recognize that the airport robot is the guide robot through the advertisement images 1211 and 1212 projected in the air. Therefore, the users in the airport can easily grasp the position of the guide robot through the advertisement images 1211 and 1212 projected in the air. In addition, the advertisement images 1211 and 1212 may be updated every predetermined period in the server and transmitted to the guide robots 1201 and 1202. [ By designing as shown in FIG. 12, there is a technical effect that convenience for users who want to receive a route guidance service is increased.

도 13 및 도 14는 본 발명의 일 실시예에 의한 안내 로봇이 주변 사용자를 감지하여 자동으로 관련 컨텐츠를 제공하는 일 예를 설명하기 위한 도면들이다.13 and 14 are views for explaining an example in which a guide robot according to an embodiment of the present invention senses a surrounding user and automatically provides related contents.

본 발명의 일 실시예에 의한 안내 로봇은 기 정해진 범위 내의 사용자의 이미지를 촬영할 수 있다. 그리고, 안내 로봇은 촬영한 이미지를 데이터 베이스 내 데이터들과의 비교를 통해 사용자의 성별 및 나이 정보 등을 추정할 수 있다. 또한, 안내 로봇은 데이터 베이스 내에 성별 및 여러가지 나이와 매칭되는 다양한 컨텐츠 정보를 저장해놓을 수 있다. 또한, 안내 로봇은 사용자의 성별 및 나이에 따른 다양한 컨텐츠를 서버로부터 수신할 수 있다. 그리고 사용자가 기 정해진 범위 내에 기 정해진 시간 이상 존재하는 것을 감지하는 경우, 안내 로봇은 관련 컨텐츠를 공항 바닥에 2D 이미지로 출력하거나, 3D 이미지로 공중에 출력할 수 있다.The guide robot according to an embodiment of the present invention can take an image of a user within a predetermined range. The guide robot can estimate the gender and age information of the user through comparing the photographed image with data in the database. In addition, the guide robot can store various contents information matching gender and various ages in the database. Further, the guide robot can receive various contents according to the user's sex and age from the server. If the user detects that the user exists within a predetermined range for a predetermined time or longer, the guidance robot can output the related content to the airport floor as a 2D image or output it as a 3D image to the public.

예를 들어 도 13의 (a)에 도시된 바와 같이, 안내 로봇(1300)은 기 정해진 범위 내에 사용자(1310)가 들어오는지를 실시간으로 감지할 수 있다. 그리고, 안내 로봇(1300)은 기 정해진 범위 내에 사용자(1310)가 들어오는 것을 감지하는 경우 사용자(1310)의 이미지를 촬영할 수 있다. 그리고 안내 로봇(1300)은 촬영한 사용자(1310)의 이미지를 데이터 베이스 내 인물 데이터들과의 비교 프로세스를 통해 사용자(1310)의 성별이 남성이고, 나이가 40대 중반인 것을 추정할 수 있다. 그리고 안내 로봇(1300)은 데이터 베이스 내에 40대 중반의 남성과 매칭되는 뉴스 또는 신문 컨텐츠 데이터를 가질 수 있다. 또한 안내 로봇(1300)은 40대 중반의 남성이 관심을 가질수 있는 뉴스 또는 신문 컨텐츠를 서버로부터 수신할 수 있다. 그리고 사용자(1310)가 기 정해진 범위 내에서 일정 시간 이상 존재하는 것을 감지하는 경우, 안내 로봇(1300)은 뉴스 또는 신문 컨텐츠 영상(1315)를 출력할 수 있다. 이 때 뉴스 또는 신문 컨텐츠 영상(1315)는 2D 이미지 일 수 있고, 홀로그램과 같은 3D 이미지 일 수 있다.For example, as shown in FIG. 13A, the guide robot 1300 can detect in real time whether or not the user 1310 enters the predetermined range. When the guide robot 1300 detects that the user 1310 enters the predetermined range, the guide robot 1300 can take an image of the user 1310. [ Then, the guide robot 1300 can estimate that the sex of the user 1310 is male and the age is in the mid-forties through the process of comparing the image of the user 1310 with the person data in the database. And the guide robot 1300 may have news or newspaper content data matched with men in their mid-forties in the database. Also, the guide robot 1300 can receive news or newspaper contents from a server that a male in his mid-40s may be interested in. When the user 1310 detects that the user 1310 exists within a predetermined range for a predetermined time or longer, the guide robot 1300 may output a news or newspaper content image 1315. At this time, the news or newspaper content image 1315 may be a 2D image or a 3D image such as a hologram.

또한, 예를 들어 도 14의 (a)에 도시된 바와 같이, 안내 로봇(1300)은 기 정해진 범위 내에 사용자(1320)가 들어오는지를 실시간으로 감지할 수 있다. 그리고, 안내 로봇(1300)은 기 정해진 범위 내에 사용자(1320)가 들어오는 것을 감지하는 경우 사용자(1320)의 이미지를 촬영할 수 있다. 그리고 안내 로봇(1300)은 촬영한 사용자(1320)의 이미지를 데이터 베이스 내 인물 데이터들과의 비교 프로세스를 통해 사용자(1320)의 성별이 남성이고, 미취학 아동인 것을 추정할 수 있다. 그리고 안내 로봇(1300)은 데이터 베이스 내에 미취학 남자 아이와 매칭되는 애니메이션 컨텐츠 데이터를 가질 수 있다. 또한 안내 로봇(1300)은 미취학 남자 아이가 관심을 가질수 있는 애니메이션 컨텐츠를 서버로부터 수신할 수 있다. 그리고 사용자(1320)가 기 정해진 범위 내에서 일정 시간 이상 존재하는 것을 감지하는 경우, 안내 로봇(1300)은 애니메이션 컨텐츠 영상(1325)를 출력할 수 있다. 이 때 애니메이션 컨텐츠 영상(1325)는 2D 이미지 일 수 있고, 홀로그램과 같은 3D 이미지 일 수 있다.14 (a), the guide robot 1300 can detect in real time whether or not the user 1320 enters the predetermined range. The guide robot 1300 can take an image of the user 1320 when it detects that the user 1320 enters the predetermined range. The guidance robot 1300 can estimate that the user of the user 1320 is a male and a preschool child through a process of comparing the image of the user 1320 with the image data in the database. The guide robot 1300 may have animation content data matching the preschool boy in the database. Also, the guide robot 1300 can receive animation contents from a server that a preschool boy may be interested in. If the user 1320 detects that the user 1320 exists within a predetermined range for a predetermined time or more, the guide robot 1300 may output the animation content image 1325. At this time, the animation content image 1325 may be a 2D image or a 3D image such as a hologram.

도 15 및 도 16은 본 발명의 일 실시예에 의한 안내 로봇이 탑승 티켓 스캔을 통해 다양한 안내 서비스를 제공하는 실시예들을 설명하기 위한 도면들이다.15 and 16 are views for explaining embodiments in which a guide robot according to an embodiment of the present invention provides various guidance services through a boarding ticket scan.

본 발명의 일 실시예에 의한 안내 로봇은 사용자와 인터랙션을 수행할 수 있다. 사용자는 자신의 탑승 티켓(ticket)과 관련된 정보를 안내 로봇에 요청할 수 있다. 사용자는 자신의 탑승 티켓에 기재된 바코드를 통해 안내 로봇에게 관련 정보를 요청할 수 있다. 사용자로부터 관련 정보 요청을 입력받은 안내 로봇은 바코드를 통해 사용자의 비행 정보를 획득할 수 있다. 사용자의 비행 정보를 획득한 안내 로봇은 비행 기종 정보, 비행기 탑승 게이트 정보 또는 비행 경로 등에 대한 정보를 포함하는 안내 컨텐츠를 출력할 수 있다. 안내 컨텐츠는 2D 이미지 또는 홀로그램과 같은 3D 이미지 일 수 있다.The guidance robot according to an embodiment of the present invention can perform an interaction with a user. The user can request information about the boarding ticket of the guide robot from the guide robot. The user can request related information from the guide robot through the barcode written on his boarding ticket. The guide robot, which receives the request for related information from the user, can acquire the user's flight information through the bar code. The guide robot that has acquired the user's flight information can output guide contents including information on the aircraft type information, flight boarding gate information, flight path, and the like. The guiding content can be a 2D image or a 3D image such as a hologram.

예를 들어 도 15에 도시된 바와 같이, 사용자(1510)는 자신의 탑승 티켓(1515)에 기재된 바코드를 안내 로봇(1500)에게 제공할 수 있다. 안내 로봇(1500)은 탑승 티켓(1515)에 기재된 바코드를 리드할 수 있다. 사용자(1510)의 탑승 티켓(1515)에 기재된 바코드를 읽은 안내 로봇(1500)은 관련 비행 정보를 서버로부터 수신할 수 있다. 관련 비행 정보는 비행 기종 정보, 탑승 정보 및 비행 경로 정보를 포함할 수 있다. 그리고, 안내 로봇(1500)은 사용자(15010)가 탑승하는 비행 기종 및 비행 시간 정보를 포함하는 제1 안내 컨텐츠 영상(1520)을 출력할 수 있다. 그리고, 안내 로봇(1500)은 사용자(1510)가 비행기를 탑승할 탑승 게이트 정보 및 탑승 시간 정보를 포함하는 제2 안내 컨텐츠 영상(1530)을 출력할 수 있다. 이 때, 제2 안내 컨텐츠 영상(1530)은 CCTV 등으로부터 획득한 현재 실시간 탑승 게이트 주변 영상일 수 있다. For example, as shown in Fig. 15, the user 1510 may provide the guide robot 1500 with the barcode described in his boarding ticket 1515. [ The guide robot 1500 can read the bar code described in the boarding ticket 1515. [ The guide robot 1500 that has read the bar code described in the boarding ticket 1515 of the user 1510 can receive the related flight information from the server. Related flight information may include flight model information, boarding information, and flight path information. The guide robot 1500 may output the first guidance content image 1520 including the aircraft type and the flight time information on which the user 15010 is boarding. Then, the guide robot 1500 may output the second guidance content image 1530 including the boarding gate information and boarding time information on which the user 1510 boarded the airplane. At this time, the second guidance content image 1530 may be the current real-time boarding gate peripheral image acquired from the CCTV or the like.

또한 도 16에 도시된 바와 같이, 안내 로봇(1500)은 사용자(1510)가 탑승하는 비행기의 비행 경로 정보가 포함된 제3 안내 컨텐츠 영상(1530)을 출력할 수 있다. 이 경우, 제3 안내 컨텐츠 영상(1540)은 2D 이미지일 수 있고, 또는 홀로그램과 같은 3D 이미지 일 수 있다.Also, as shown in FIG. 16, the guide robot 1500 may output the third guidance content image 1530 including the flight path information of the airplane on which the user 1510 is boarding. In this case, the third guidance content image 1540 may be a 2D image or a 3D image such as a hologram.

도 17 내지 도 20은 본 발명의 일 실시예에 의한 안내 로봇이 공항 이용객들에게 가상 이미지 홀로그램을 제공하는 일 예를 설명하기 위한 도면들이다.17 to 20 are diagrams for explaining an example in which a guide robot according to an embodiment of the present invention provides a virtual image hologram to airport users.

본 발명의 일 실시예에 의한 안내 로봇은 공항 이용객 들에게 광고 컨텐츠를 제공하는 광고 장치(1700)를 포함할 수 있다. 도 17 내지 도 19를 참조하여 본 발명의 일실시예에 따른 안내 로봇(1720)의 광고 장치(1700)를 설명하면, 본 발명의 일실시예에 따른 안내 로봇(1720)의 광고 장치(1700)는 공항 이용객에 대한 영상을 획득하는 영상획득부(1710)를 포함할 수 있다. 본 발명의 실시예에 따른 공항 이용객은 쇼윈도(1740)의 내부에 배치된 상품(1750)을 지켜보는 사람일 수도 있다. 본 발명의 실시예에 따른 영상획득부(1710)는 카메라(Camera) 및 캠코더(Camcoder) 등과 같이 사물을 촬영하여 영상을 획득하는 장치를 포함할 수 있다. 또한 키넥트(Kinect) 등과 같은 공항 이용객의 움직임을 센싱하는 장치를 포함할 수도 있다. The guidance robot according to an embodiment of the present invention may include an advertisement device 1700 that provides advertisement contents to airport users. The advertising device 1700 of the guide robot 1720 according to an embodiment of the present invention will be described with reference to Figs. And an image acquisition unit 1710 for acquiring an image of an airport user. An airport visitor according to an embodiment of the present invention may be a person watching the goods 1750 disposed inside the show window 1740. [ The image acquiring unit 1710 according to an embodiment of the present invention may include an apparatus for acquiring images by photographing objects such as a camera and a camcorder. It may also include a device for sensing the movement of an airport user, such as a Kinect.

본 발명의 실시예에 따른 영상획득부(1710)는 공항 이용객 및 공항 이용객 주변의 영상을 함께 촬영할 수도 있다. 이 경우 안내 로봇(1720)은 촬영된 영상 중에서 관객 주변의 영상을 제거하여, 관객에 대한 영상만을 추출할 수도 있다. 또한 안내 로봇(1720)은 영상획득부(1710)가 획득한 영상 중 공항 이용객에 대한 영상에 기초하여 아바타를 생성할 수도 있다. 이때 안내 로봇(1720)이 생성한 아바타는 공항 이용객의 모습과 유사할 수 있다. The image acquisition unit 1710 according to the embodiment of the present invention may photograph images of the surroundings of the airport user and the airport user together. In this case, the guide robot 1720 may remove only the image of the audience by removing the image around the viewer from the photographed images. Also, the guide robot 1720 may generate an avatar based on the image of the airport user among the images acquired by the image acquisition unit 1710. At this time, the avatar generated by the guide robot 1720 may be similar to that of the airport user.

본 발명의 또 다른 실시예에 따르면 영상획득부(1710)는 자체에 설치된 제어모듈을 이용하여, 공항 이용객에 대한 영상만을 촬영할 수도 있다. 본 발명의 실시예에 따른 영상획득부(1710)는 공항 이용객에 대한 입체 영상을 획득하기 위해 하나 이상이 배치될 수 있다. 영상획득부(1710)는 쇼윈도(1740) 내부에 배치될 수도 있으며, 쇼윈도(1740) 외부에 배치될 수도 있다. 또한 일부는 쇼윈도(1740)에 배치되고, 일부는 쇼윈도(1740) 외부에 배치될 수도 있다.According to another embodiment of the present invention, the image acquiring unit 1710 may photograph only the image of the airport user using the control module installed in the image acquiring unit 1710. The image acquiring unit 1710 according to the embodiment of the present invention may be arranged to acquire a stereoscopic image of an airport user. The image acquisition unit 1710 may be disposed inside the show window 1740 or outside the show window 1740. [ Some may be placed in the show window 1740, and some may be placed outside the show window 1740.

영상획득부(1710)가 복수인 경우, 각각의 영상획득부(1710)는 공항 이용객에 대한 각각 다른 각도에서 촬영된 영상을 획득할 수 있다. 이 경우 안내 로봇(1720)은 각각 다른 각도에서 촬영된 영상에 기초하여 입체 영상을 생성할 수도 있다. 도 17 내지 도 18에서는 영상획득부(1710)가 두 개인 것으로 도시되어 있으나, 본 발명은 이에 한정되지 않는다. 영상획득부(1710)가 두 개보다 더 적은 경우 또는 더 많은 경우에도 본 발명의 적용이 가능하다.When there are a plurality of image acquiring units 1710, each image acquiring unit 1710 can acquire images photographed at different angles with respect to airport users. In this case, the guide robot 1720 may generate a stereoscopic image based on images taken at different angles. 17 to 18 illustrate two image acquiring units 1710, but the present invention is not limited thereto. The present invention is applicable even when there are fewer or more than two image acquiring units 1710.

또한 도 17 내지 18에서는 영상획득부(1710)가 각각 쇼윈도(1740)의 하부 및 쇼윈도(1740)의 상부에 배치되어 있으나, 본 발명은 이에 한정되지 않는다. 얼마든지 영상획득부(1710)가 다른 위치에 배치되는 경우에도 본 발명의 적용이 가능하다.17 to 18, the image acquiring unit 1710 is disposed below the display unit 1740 and above the display unit 1740, but the present invention is not limited thereto. The present invention can be applied to a case where the image acquiring unit 1710 is disposed at a different position.

본 발명의 일실시예에 따른 안내 로봇(1720)의 광고 장치(1700)는 획득된 영상을 배치된 상품(1750)에 맞춰 조절하고, 조절된 영상에 기초하여 홀로그램을 생성할 수 있다. 본 발명의 실시예에 따른 안내 로봇(1720)은 광고 장치(1700)의 전반적인 동작을 제어한다. 또한 안내 로봇(1720)은 배치된 상품(1750)에 맞춰, 획득된 영상의 크기, 위치 또는 비율을 조절할 수 있다. 또한 안내 로봇(1720)은 조절된 영상에 기초하여 홀로그램을 생성할 수 있다. 이때 안내 로봇(1720)은 저장부(미도시)에 기 저장된 배치된 상품(1750)의 정보에 기초하여 획득된 영상을 조절할 수 있다. 배치된 상품(1750)의 정보는 배치된 상품의 크기, 상품이 배치된 위치, 상품의 배치 형태 및 상품의 종류 중 적어도 어느 하나 이상을 포함할 수 있다. 이에 대하여 보다 상세히 설명하면 다음과 같다.The advertising device 1700 of the guide robot 1720 according to an embodiment of the present invention can adjust the acquired image to fit the arranged article 1750 and generate a hologram based on the adjusted image. The guidance robot 1720 according to the embodiment of the present invention controls the overall operation of the advertisement device 1700. [ Also, the guide robot 1720 can adjust the size, position, or ratio of the acquired image in accordance with the placed product 1750. The guide robot 1720 can also generate a hologram based on the adjusted image. At this time, the guide robot 1720 can adjust the acquired image based on the information of the placed article 1750 previously stored in the storage unit (not shown). The information of the placed goods 1750 may include at least any one of the size of the placed goods, the position where the goods are disposed, the arrangement form of the goods, and the type of the goods. This will be described in more detail as follows.

본 발명의 실시예에 따르면, 안내 로봇(1720)은 획득된 공항 이용객에 대한 영상의 크기를 조절하여, 배치된 상품(1750)에 맞출 수 있다. 예를 들어 설명하면, 배치된 상품(1750)이 스몰 사이즈(small size)의 옷이고, 공항 이용객이 라지 사이즈(large size)의 옷을 입는 경우, 안내 로봇(1720)은 획득된 공항 이용객의 영상의 크기를 배치된 상품(1750)에 맞게 줄일 수 있다. 또한 안내 로봇(1720)은 배치된 상품(1750)이 라지 사이즈(Large size)의 옷이고, 공항 이용객이 스몰 사이즈(Small size)의 옷을 입는 경우, 안내 로봇(1720)은 획득된 관객의 영상의 크기를 배치된 상품(1750)에 맞게 늘릴 수 있다. 여기서 안내 로봇(1720)이 영상의 크기를 조절한다고 함은, 영상 속 공항 이용객의 크기를 조절하는 것과 함께 영상 속 공항 이용객의 비율을 조절하여, 상품(1750)에 맞추는 것을 의미할 수도 있다. 이 경우 안내 로봇(1720)은 기 저장된 배치된 상품(1750)의 크기에 대한 정보에 기초하여 획득된 영상의 크기를 조절할 수 있다.According to the embodiment of the present invention, the guide robot 1720 can adjust the size of the image for the acquired airport user so as to match the arranged goods 1750. For example, if the deployed article 1750 is a small size and the airport user wears a large size of clothes, the guide robot 1720 displays the image of the acquired airport user The size of the article 1750 can be reduced to fit the arranged article 1750. In addition, when the arranged article 1750 is a large size clothes and the airport user wears a small size clothes, the guide robot 1720 displays the image of the obtained audience The size of the item 1750 can be increased to fit the arranged article 1750. Here, the guide robot 1720 adjusts the size of the image, which means adjusting the size of the airport user in the image and adjusting the ratio of the airport user in the image to the product 1750. In this case, the guide robot 1720 can adjust the size of the acquired image based on the information about the size of the previously stored placed product 1750.

획득된 영상을 그대로 홀로그램으로 변환하여 투사 할 경우, 배치된 상품(1750)과 크기가 서로 맞지 않을 수 있기 때문에, 안내 로봇(1720)은 획득된 영상을 배치된 상품(1750)에 맞도록 조절할 수 있다.When the acquired image is directly converted into a hologram and projected, the guided robot 1720 may adjust the acquired image to fit the arranged article 1750 because the arranged article 1750 and the arranged article 1750 may not match with each other have.

또한 안내 로봇(1720)은 획득된 공항 이용객에 대한 영상을 배치된 상품(1750)의 배치 형태에 맞춰 영상을 조절할 수 있다.Also, the guide robot 1720 can adjust the image of the acquired airport user in accordance with the arrangement form of the arranged goods 1750.

도18을 예를 들어 설명하면, 배치된 상품(1750)이 옷이고, 사람이 달리는 형태의 모양으로 배치된 경우, 안내 로봇(1720)은 획득된 영상의 형태를 사람이 달리는 형태로 조절한다. 이때 안내 로봇(1720)은 획득된 공항 이용객에 대한 영상을 머리, 다리 및 팔 등 각각의 신체부위별로 분리하고, 분리된 영상을 사람이 달리는 형태로 재조합 할 수도 있다. 이 경우 안내 로봇(1720)은 저장된 배치된 상품(1750)의 배치 형태에 관한 정보에 기초하여 획득된 영상을 조절할 수 있다.Referring to FIG. 18, for example, when the placed merchandise 1750 is clothes and is arranged in the shape of a person running, the guide robot 1720 adjusts the shape of the acquired image to a shape in which a person runs. At this time, the guide robot 1720 may separate the image of the acquired airport user into individual body parts such as head, leg, and arm, and recombine the separated images into a form in which the separated images are running. In this case, the guiding robot 1720 can adjust the acquired image based on the information on the arrangement form of the stored placement commodities 1750.

또한, 만일 배치된 상품(1750)이 핸드백(handbag)인 경우, 획득된 공항 이용객에 대한 영상을 핸드백을 들고 있는 형태로 조절할 수도 있다. 이 경우 안내 로봇(1720)은 저장된 배치된 상품(1750)의 배치 위치 및 상품 종류에 관한 정보에 기초하여 획득된 영상을 조절할 수 있다. 이 경우도, 안내 로봇(1720)은 획득된 공항 이용객에 대한 영상을 머리, 다리 및 팔 등 각각의 신체부위별로 분리하고, 분리된 영상을 핸드백을 들고 있는 형태로 재조합 할 수도 있다.In addition, if the placed merchandise 1750 is a handbag, the image of the acquired airport user may be adjusted to hold the handbag. In this case, the guide robot 1720 can adjust the acquired image based on the information on the arrangement position and the product type of the stored placement article 1750. Also in this case, the guide robot 1720 may separate the images of the obtained airport guests into individual body parts such as the head, legs, and arms, and recombine the separated images into the form of holding the handbag.

또한, 만일 배치된 상품(1750)이 백팩(backpack)인 경우, 획득된 공항 이용객에 대한 영상을 백팩을 착용하고 있는 형태로 조절할 수도 있다. 이 경우 안내 로봇(1720)는 저장된 배치된 상품(1750)의 배치 위치 및 상품 종류에 관한 정보에 기초하여 획득된 영상을 조절할 수 있다. 이 경우도, 안내 로봇(1720)는 획득된 공항 이용객에 대한 영상을 머리, 다리 및 팔 등 각각의 신체부위별로 분리하고, 분리된 영상을 백팩을 착용하고 있는 형태로 재조합 할 수도 있다.In addition, if the deployed product 1750 is a backpack, the image of the acquired airport user may be adjusted to the form of wearing a backpack. In this case, the guide robot 1720 can adjust the acquired image on the basis of the information on the arrangement position and the product type of the stored placement article 1750. Also in this case, the guide robot 1720 may separate the image of the acquired airport user into individual body parts such as the head, legs and arms, and recombine the separated images into a form wearing a backpack.

안내 로봇(1720)이 재조합하는 상품의 착용 형태는 기 설정되어 있을 수도 있으며, 해당 상품의 전형적인 착용 형태에 기초할 수도 있다.The wearing mode of the article to be recombined by the guide robot 1720 may be preset or may be based on a typical wearing style of the corresponding article.

상기 설명과 같이, 상품(1750)에 맞춰진 영상에 기초하여 홀로그램을 생성하므로, 홀로그램이 표시부(1745)에 투사될 경우, 광고 장치(1700)는 공항 이용객에게 실제로 상품(1750)을 착용하고 있는 듯 시각적 효과를 줄 수 있다.The hologram is projected on the display unit 1745 so that the advertisement apparatus 1700 can recognize that the user is actually wearing the article 1750 to the airport user It can give a visual effect.

본 발명의 일실시예에 따른 광고 장치(1700)는 홀로그램을 쇼윈도(1740)의 일면에 투사하는 투사부(1730)를 더 포함할 수 있다. 본 발명의 실시예에 따른 투사부(1730)는 홀로그램을 투사할 수 있는 프로젝터(Projector)를 포함할 수 있다.The advertisement device 1700 according to an exemplary embodiment of the present invention may further include a projection unit 1730 that projects the hologram on one side of the display unit 1740. The projection unit 1730 according to the embodiment of the present invention may include a projector capable of projecting a hologram.

투사부(1730)는 표시부(1745)의 뒷면으로 홀로그램을 투사할 수도 있다. 그러나 투사부(1730)가 표시부(1745)의 전면으로 홀로그램을 투사하는 경우에도 본 발명의 적용이 가능하다.The projection unit 1730 may project the hologram to the back surface of the display unit 1745. [ However, the present invention can be applied to a case where the projection unit 1730 projects a hologram to the front surface of the display unit 1745. [

본 발명의 일실시예에 다른 안내 로봇의 광고 장치(1700)는 홀로그램이 표시되는 표시부(1745)를 더 포함할 수 있다. 본 발명의 실시예에 다른 표시부(1745)는 쇼윈도(1740)의 투명 창 중 어느 일면에 투명한 재질의 특수 필름을 코팅하여 형성되며, 홀로 스크린(Holo Screen)일 수 있다.The advertising device 1700 of the guide robot according to an embodiment of the present invention may further include a display unit 1745 displaying a hologram. The display portion 1745 according to the embodiment of the present invention is formed by coating a transparent film of a transparent material on one side of the transparent window of the show window 1740, and may be a Holo Screen.

홀로 스크린은 완전투명한 필름형태의 스크린으로 3D Hologram Image 및 동영상을 비추면 투명스크린에 선명한 영상이 표현 되는 스크린일 수 있다.A holographic screen can be a screen that is a completely transparent film-type screen, and a 3D hologram image and a screen on which a clear image is displayed on a transparent screen by illuminating the movie.

표시부(1745)는 쇼윈도(1740)의 투명창에 투명 필름이 코팅되어 있는 구조이기 때문에, 낮에는 쇼윈도(1740)의 다른 투명창과 동일한 기능을 수행할 수 있다. 반면 밤이 되면, 투사부(1730)는 표시부(1745)에 홀로그램을 투사하여, 표시부(1745)로 하여금 홀로그램을 표시하게 할 수 있다. 즉 밤에는 쇼윈도(1740)의 투명 필름이 부착된 일면이, 디스플레이 장치의 역할을 수행하게 될 수 있다. 이러한 구성을 통해 본 발명은, 별도의 설치 없이, 쇼윈도우(1740)를 표시부(1745)로 사용할 수 있다.Since the display portion 1745 has a transparent window coated on the transparent window of the show window 1740, the display portion 1745 can perform the same function as another transparent window of the show window 1740 during the daytime. On the other hand, at night, the projection unit 1730 projects the hologram to the display unit 1745, and allows the display unit 1745 to display the hologram. That is, one side of the display window 1740 to which the transparent film is attached may serve as a display device at night. With this configuration, the present invention can use the show window 1740 as the display unit 1745 without any additional installation.

도 20은 본 발명의 일실시예에 따른 안내 로봇이 광고 장치를 사용하여 광고하는 방법을 설명하기 위한 순서도이다.FIG. 20 is a flowchart illustrating a method of advertising a guide robot using an advertisement device according to an embodiment of the present invention. Referring to FIG.

도 20을 참조하여 본 발명의 실시예에 따른 광고 방법을 설명하면, 먼저 영상획득부(1710)는 쇼윈도(1740)에 배치된 상품을 지켜보는 공항 이용객에 대한 영상을 획득한다(S2010). 이 과정에서 안내 로봇(1720)은 영상획득부(1710)에 의해 촬영된 영상에서 공항 이용객에 대한 영상을 추출할 수도 있다. 또한 영상획득부(1710)에 의해 촬영된 영상에서 공항 이용객에 대한 아바타를 추출할 수도 있다.Referring to FIG. 20, an advertisement method according to an embodiment of the present invention will be described. In operation S2010, an image acquisition unit 1710 acquires an image of an airport user watching a merchandise disposed in a shop window 1740. In this process, the guide robot 1720 may extract an image of the airport user from the image photographed by the image acquisition unit 1710. Also, the avatar for the airport user may be extracted from the image photographed by the image acquisition unit 1710.

이후 안내 로봇(1720)은 획득된 영상을 배치된 상품에 맞춰 조절하고, 조절된 영상에 기초하여 홀로그램을 생성할 수 있(S2020). 안내 로봇(1720)은 배치된 상품(1750)에 맞게 획득된 영상의 크기, 위치, 비율 또는 배치형태를 조절할 수 있다. 또한 안내 로봇(1720)은 조절된 영상에 기초하여 홀로그램을 생성할 수 있다. 이후 투사부(1730)는 홀로그램을 표시부(1745)에 투사할 수 있다(S2030). Thereafter, the guide robot 1720 adjusts the acquired image according to the placed product, and generates a hologram based on the adjusted image (S2020). The guide robot 1720 can adjust the size, position, ratio, or arrangement of images obtained in accordance with the arranged goods 1750. The guide robot 1720 can also generate a hologram based on the adjusted image. Thereafter, the projection unit 1730 can project the hologram to the display unit 1745 (S2030).

도 21 내지 도 23은 본 발명의 일 실시예에 의한 안내 로봇이 공항 이용객들에게 가상 이미지 홀로그램을 제공하는 다른 일 예를 설명하기 위한 도면들이다.FIGS. 21 to 23 are diagrams for explaining another example in which a guide robot according to an embodiment of the present invention provides a virtual image hologram to airport users.

도 21 내지 도 23에 도시된 바와 같이, 본 발명의 일 실시예에 의한 안내 로봇(2100)은 공항 이용객들에게 가상성형 서비스를 제공하여 승무원, 기장 등 비행기와 관련된 다양한 직장인들의 이미지를 체험할 수 있다.21 to 23, the guide robot 2100 according to an embodiment of the present invention provides a virtual molding service to airport users to experience images of various office workers related to airplanes such as flight attendants and captains have.

본 발명의 실시예에 따른 3D 홀로그램 가상 이미지 제공 안내 로봇(2100)은 도 23에서와 같이 영상센서 모듈(2110), 입출력장치(2120), 메인 컨트롤러(2130), 성형부위별 템플릿 DB(2140), 가상성형 디스플레이장치(2150), 가상성형기 본체(2160)를 포함하여 이루어질 수 있다. The 3D hologram virtual image providing guidance robot 2100 according to the embodiment of the present invention includes an image sensor module 2110, an input / output device 2120, a main controller 2130, a template DB 2140 for each molding part, A virtual molded display device 2150, and a virtual molding machine main body 2160. [

영상센서 모듈(2110)은 서로 이격되게 배치되는 복수개의 영상센서(2111)로 이루어진다. 영상센서 모듈(2110)은 각 영상센서(2111)로부터 사용자 얼굴을 촬영하여 사용자 얼굴의 입체 영상정보를 획득하게 된다. 이와 같은 영상센서 모듈(2110)은 스테레오 카메라와 같은 고가의 3D 측정장치를 대체함으로써 비용절감을 도모할 수 있다.The image sensor module 2110 includes a plurality of image sensors 2111 that are spaced apart from each other. The image sensor module 2110 captures the user's face from each image sensor 2111 to obtain stereoscopic image information of the user's face. Such an image sensor module 2110 can reduce cost by replacing an expensive 3D measuring device such as a stereo camera.

특히, 본 발명의 실시예에 따른 안내 로봇(100)의 영상센서 모듈(2110)은 도 21에서와 같이 안내 로봇(2100)의 중앙 전면에 배치되는 정면 영상센서(2111), 안내 로봇(2100)의 좌측 측벽(2161)에 배치되는 좌측면 영상센서(2111), 안내 로봇(2100)의 우측 측벽(2161)에 배치되는 우측면 영상센서(2111)로 이루어질 수 있다. 그리고 본 발명의 실시예에 따른 안내 로봇(2100)의 영상센서(2111)는 수평하게 배치되는 막대형 프리즘 형상으로 이루어져 설정된 높이에 고정될 수 있다.21, the image sensor module 2110 of the guide robot 100 according to the embodiment of the present invention includes a front image sensor 2111, a guide robot 2100, A left side image sensor 2111 disposed on the left side wall 2161 of the guide robot 2100 and a right side image sensor 2111 disposed on the right side wall 2161 of the guide robot 2100. In addition, the image sensor 2111 of the guide robot 2100 according to the embodiment of the present invention may be formed in the shape of a rod-shaped prism arranged horizontally and fixed at a predetermined height.

여기서 안내 로봇(2100)은 영상센서 모듈(2110), 입출력장치(2120), 메인 컨트롤러(2130), 성형부위별 템플릿DB(2140), 가상성형 디스플레이장치(2150)가 설치되는 것으로, 안내 로봇(2100)은 양측으로 측벽(2161)을 연장형성시킨다.Here, the guide robot 2100 includes an image sensor module 2110, an input / output device 2120, a main controller 2130, a template DB 2140 for each molding part, and a virtual molding display device 2150, 2100 extend the side wall 2161 to both sides.

입출력장치(2120)는 가상성형용 콘텐츠 라이브러리(contents library) 항목을 사용자에게 제공하고, 가상성형용 콘텐츠 라이브러리 항목으로부터 사용자에 의해 선택된 선택항목을 입력받는다. 본 발명의 실시예에 따른 입출력장치(2120)는 가상성형용 콘텐츠 라이브러리 항목이 출력되고, 사용자의 터치에 의해 가상형성용 콘텐츠 라이브러리의 선택항목이 입력되는 터치스크린(2121)이다. 메인 컨트롤러(2130)는 영상센서 모듈(2110), 입출력장치(2120), 성형부위별 템플릿 DB(2140), 가상성형 디스플레이장치(2150)와 연결되어 가상성형이 수행되고 관리되도록 하는 것이다. 이와 같은 메인 컨트롤러(2130)는 영상센서 모듈(2110)로부터 사용자 얼굴의 입체 영상정보를 전달받고, 입출력장치(2120)로부터 가상성형용 콘텐츠 라이브러리의 선택항목을 입력받은 후, 사용자 얼굴의 입체 영상정보에 가상성형용 콘텐츠 라이브러리의 선택항목을 적용시킨 사용자 얼굴의 가상성형 형상 정보를 산출하게 된다. The input / output device 2120 provides a contents library item for virtual molding to the user, and receives a selection item selected by the user from the virtual molding contents library item. The input / output device 2120 according to the embodiment of the present invention is a touch screen 2121 in which a virtual molding content library item is output and a selection item of a virtual forming content library is inputted by a user's touch. The main controller 2130 is connected to the image sensor module 2110, the input / output device 2120, the template part DB 2140 for each molding part, and the virtual molding display device 2150 so that the virtual molding is performed and managed. The main controller 2130 receives the stereoscopic image information of the user's face from the image sensor module 2110 and receives the selection items of the virtual molding contents library from the input / output device 2120, The virtual molding shape information of the user face to which the selection item of the virtual molding contents library is applied is calculated.

본 발명의 실시예에 따른 안내 로봇(2100)의 메인 컨트롤러(2130)는 얼굴인식 유닛(2131), 3D 모델링 유닛(2132), 가상성형 유닛(2133)을 포함하여 이루어질 수 있다. 얼굴인식 유닛(2131)은 영상센서 모듈(2110)에서 입력되는 사용자 얼굴의 입체 영상정보로부터 사용자 얼굴을 인식하고 사용자의 얼굴형상정보를 추출하는 유닛으로, 이를 위한 인식 알고리즘을 갖는다. 특히 본 발명의 실시예에 따른 얼굴인식 유닛(2131)은 얼굴영역 추출알고리즘을 통해 사용자의 얼굴이 위치하는 얼굴영역을 추출하고, 중심점 추출알고리즘을 통해 얼굴영역의 중심점을 추출하며, 윤곽선 추출알고리즘을 통해 얼굴영역의 윤곽선을 추출한다. 또한 얼굴인식 유닛(2131)은 깊이정보 추출알고리즘을 통해 얼굴영역의 깊이 정보를 추출하고, 추출된 깊이정보를 깊이 이미지를 저장하는데, 사용자 얼굴의 정면 영상정보, 좌측면 영상정보, 우측면 영상정보에 대응하는 3개의 깊이 이미지를 저장할 수 있다.The main controller 2130 of the guide robot 2100 according to the embodiment of the present invention may include a face recognition unit 2131, a 3D modeling unit 2132, and a virtual forming unit 2133. [ The face recognizing unit 2131 is a unit for recognizing the user face from the stereoscopic image information of the user face input from the image sensor module 2110 and extracting the face shape information of the user, and has a recognition algorithm for this. In particular, the face recognition unit 2131 according to the embodiment of the present invention extracts the face region where the user's face is located through the face region extraction algorithm, extracts the center point of the face region through the center point extraction algorithm, The contour of the face area is extracted. The face recognition unit 2131 extracts the depth information of the face region through the depth information extraction algorithm and stores the extracted depth information into the depth image. The face recognition unit 2131 extracts the depth image from the front face image information, the left face image information, The corresponding three depth images can be stored.

3D 모델링 유닛(2132)은 얼굴인식 유닛(2131)으로부터 인식되어 추출되는 사용자의 얼굴형상정보로부터 사용자 얼굴을 3D 모델링하는 유닛으로, 이를 위한 3D 모델링 알고리즘을 갖는다. 특히 본 발명의 실시예에 따른 3D 모델링 유닛(2132)은 사용자 얼굴의 깊이 이미지로부터 3D 메쉬 데이터를 생성시키고, 사용자의 얼굴영역의 윤곽선 정보를 이용하여 3D 메쉬 데이터에 대한 3D 정합을 수행한 후, 3D 정합으로 생성된 사용자의 얼굴 3D 모델을 보정한 다음, 보정된 사용자의 얼굴 3D 모델에 대한 텍스처 이미지를 생성하여 맵핑할 수 있다. 가상성형 유닛(2133)은 입출력장치(2120)에서 입력되는 가상형성용 콘텐츠 라이브러리의 선택항목에 따라 3D 모델링 된 사용자 얼굴을 변형시켜 사용자 얼굴의 가상성형 형상 정보를 산출하는 유닛으로, 이를 위한 가상성형 알고리즘을 가질 수 있다. 여기서, 본 발명의 실시예에 따른 메인 컨트롤러(2130)는 사용자 얼굴의 가상성형 형상 정보가 3D 홀로그램의 입체 영상정보로 산출되도록 한다.The 3D modeling unit 2132 is a unit for 3D modeling the user's face from the face shape information of the user recognized and extracted from the face recognition unit 2131, and has a 3D modeling algorithm for this. In particular, the 3D modeling unit 2132 according to the embodiment of the present invention generates 3D mesh data from the depth image of the user's face, performs 3D matching on the 3D mesh data using the contour information of the user's face area, After correcting the user's face 3D model generated by 3D matching, a texture image of the corrected user's face 3D model can be generated and mapped. The virtual forming unit 2133 is a unit for calculating the virtual molding shape information of the user's face by modifying the 3D modeled user's face according to the selection item of the virtual forming content library input from the input / output device 2120, Algorithm. Here, the main controller 2130 according to the embodiment of the present invention allows the virtual molding shape information of the user's face to be calculated as the stereoscopic image information of the 3D hologram.

성형부위별 템플릿 DB(2140)는 가상성형용 콘텐츠 라이브러리가 저장되어 관리되는 데이터베이스이다. 본 발명의 실시예에 다른 성형부위별 템플릿 DB(2140)는 인적정보 관리 DB(2141), 안면 윤곽 정보관리 DB(2142), 성형부위별 모델 DB(2143), 모델별 메타데이터 DB(2144), 부위별 성형 메타데이터 DB(2145)를 포함한다. 인적정보 관리 DB(2141)는 가상성형을 수행하는 사용자의 인적정보가 저장되고 관리되는 DB이다. 안면 윤곽 정보관리 DB(2142)는 영상센서 모듈(2110)에 의해 획득된 사용자 얼굴의 입체 영상정보로부터 메인 컨트롤러(2130)에 의해 산출되는 사용자의 안면 윤곽정보가 저장되고 관리되는 DB이다. 성형부위별 모델 DB(2143)는 얼굴 부위별에 제공되는 복수의 모델에 관한 정보가 저장되고 관리되는 DB이다. 모델별 메타데이터 DB(2144)는 얼굴형상정보를 포함하는 메타데이터가 각 모델 별로 저장되고 관리되는 DB이다. 부위별 성형 메타데이터 DB(2145)는 각 얼굴 부위의 성형에 적용되는 얼굴 부위 변형정보를 포함하는 성형 메타데이터가 성형부위별로 저장되고 관리되는 DB이다.The template-based template DB 2140 is a database in which a virtual molding content library is stored and managed. The template DB 2140 for each formed part according to the embodiment of the present invention includes a human information management DB 2141, a facial profile information management DB 2142, a model part DB 2143 for each molding part, a metadata DB 2144 for each model, , And a site-specific shape metadata DB 2145. [ The human information management DB 2141 is a DB in which personal information of a user performing virtual formation is stored and managed. The face contour information management DB 2142 is a DB in which the face contour information of the user calculated by the main controller 2130 is stored and managed from the stereoscopic image information of the user's face acquired by the image sensor module 2110. The model DB 2143 for each molding site is a DB in which information on a plurality of models provided for each face region is stored and managed. The per-model metadata DB 2144 is a DB in which metadata including face shape information is stored and managed for each model. The site-specific shape metadata DB 2145 is a database in which the shape metadata including the face region deformation information applied to the shaping of each face portion is stored and managed for each site to be formed.

이에 따라, 성형부위별 템플릿 DB(2140)에 저장되어 관리되는 가상성형용 콘텐츠 라이브러리는 사용자의 안면 윤곽정보, 부위별 모델정보, 모델별 메타데이터, 부위별 성형 메타데이터를 포함하게 된다. 가상성형 디스플레이장치(2150)는 메인 컨트롤러(2130)와 연결되어 사용자 얼굴의 가상성형 형상 정보를 출력하게 된다. 여기서, 본 발명의 실시예에 따른 가상성형 디스플레이장치(2150)로는 3D 홀로그램 출력장치(2151)가 사용된다. 이와 같은 가상 성형 서비스를 제공하는 안내 로봇(2100)의 3D 홀로그램 출력장치(2151)는 도 21에서와 같이 메인 컨트롤러(2130)와 연결되어 사용자 얼굴의 가상 성형 형상 정보를 전달받는 영상투사기(5111)와 연결된 영상투사스크린(511)이 사용자 얼굴의 가상성형 영상을 외부로 투사시키도록 하고, 영상투사스크린(511) 상측으로 이격되어 경사지게 설치되는 하프미러(512)가 영상투사스크린(5111)으로부터 투사되는 사용자 얼굴의 가상성형 영상을 3D 홀로그램의 입체 영상으로 구현하도록 한다. Accordingly, the virtual molding contents library stored and managed in the template DB 2140 for each molding part includes the face contour information of the user, the model information for each part, the metadata for each model, and the molding metadata for each part. The virtual molded display device 2150 is connected to the main controller 2130 to output virtual molding shape information of the user's face. Here, as the virtual molded display device 2150 according to the embodiment of the present invention, a 3D hologram output device 2151 is used. The 3D hologram output device 2151 of the guide robot 2100 for providing such a virtual forming service is connected to the main controller 2130 as shown in FIG. 21, and is connected to an image projector 5111, And a half mirror 512 installed at an angle to the upper side of the image projection screen 511 and projecting from the image projection screen 5111 to the image projection screen 5111, The 3D virtual image of the user's face is formed as a stereoscopic image of the 3D hologram.

따라서, 이와 같은 가상 성형 서비스를 이용하는 경우, 도 22에 도시된 바와 같이 공항 이용객은 자신의 얼굴이 입혀진 승무원 이미지를 3D 홀로그램 컨텐츠로서 제공받을 수 있다.Accordingly, in the case of using such a virtual molding service, as shown in FIG. 22, the airport user can be provided with the 3D image of the crew image on which his / her face is clothed.

도 24는 본 발명의 일 실시예에 의한 공항용 안내 로봇의 구성을 블록도로 도시한 도면이다.24 is a block diagram showing a configuration of an airport guidance robot according to an embodiment of the present invention.

도 4 내지 도 23에서 설명한 본 발명의 일 실시예에 의한 공항용 안내 로봇에 대하여 정리하면, 도 1 및 도 2에 기재된 블록도는 도 24로 간략화 될 수 있다.The airborne guide robot according to one embodiment of the present invention described in Figs. 4 to 23 can be simplified as shown in Fig. 24, in which the block diagram shown in Figs. 1 and 2 is shown.

본 발명의 일 실시예에 의한 공항용 안내 로봇(2400)은 공항 지도 데이터를 저장하는 맵(map) 관리모듈(2410)을 포함할 수 있다. 그리고 공항용 안내 로봇(2400)은 데이터를 송수신하는 통신부(2430)을 포함할 수 있다. 그리고 공항용 안내 로봇(2400)은 이미지를 처리하는 이미지 프로세서(2440)을 포함할 수 있다. 그리고 공항용 안내 로봇(2400)은 처리된 이미지를 출력하는 출력부(2460)을 포함할 수 있다. 그리고 공항용 안내 로봇(2400)은 제어부(2480)를 포함할 수 있다. 그리고 제어부(2480)는 길 안내 요청 신호를 수신할 수 있다. 그리고 제어부(2480)는, 현재 위치로부터 목적지까지의 이동 경로를 계산할 수 있다. 그리고 제어부(2480)는, 이동 경로에 기초하는 길 안내 컨텐츠를 생성할 수 있다. 그리고 제어부(2480)는, 길 안내 컨텐츠의 타입에 따라 길 안내 컨텐츠를 출력하도록 제어할 수 있다. 공항용 안내 로봇(2400)은 터치 모니터(2470)를 더 포함할 수 있다. 그리고 길 안내 요청 신호는 상기 터치 모니터(2470)를 통해 수신될 수 있다. 그리고 길 안내 요청 신호는 목적지 정보를 포함할 수 있다. 그리고 공항용 안내 로봇(2400)은 위치 인식부(2420)을 더 포함할 수 있다. 그리고 위치 인식부(2420)는 LiDAR 및 Wi-Fi 모듈을 포함할 수 있다. 그리고 제어부(2480)는, 위치 인식부(2420)를 통해 상기 공항용 안내 로봇(2400)의 현재 위치를 디텍팅할 수 있다. 그리고 제어부(2480)는, 디텍팅된 현재 위치 정보와 목적지 정보를 이용하여 이동 경로를 계산할 수 있다. 그리고, 길 안내 컨텐츠의 타입은 2D 네비게이션 이미지, 2D 네비게이션 영상, 3D 네비게이션 이미지, 3D 네비게이션 영상 및 홀로그램 네비게이션 중 적어도 하나를 포함할 수 있다. 그리고 제어부(2480)는, 상기 2D 네비게이션 이미지, 2D 네비게이션 영상, 3D 네비게이션 이미지, 3D 네비게이션 영상은 공항 내 벽면 상에 출력하도록 제어할 수 있다. 그리고 제어부(2480)는, 홀로그램 네비게이션은 공간 상에 출력하도록 제어할 수 있다. 그리고, 출력부(2460)은 이미지 또는 패턴을 투사하는 투사부 및The airport guidance robot 2400 according to an embodiment of the present invention may include a map management module 2410 for storing the airport map data. The airport guidance robot 2400 may include a communication unit 2430 for transmitting and receiving data. And the airport guidance robot 2400 may include an image processor 2440 for processing images. The airport guidance robot 2400 may include an output unit 2460 for outputting the processed image. The airport guidance robot 2400 may include a control unit 2480. [ The control unit 2480 may receive the route guidance request signal. Then, the control unit 2480 can calculate the movement route from the current position to the destination. Then, the control unit 2480 can generate the route guidance content based on the movement route. The control unit 2480 may control to output the navigation contents according to the type of the navigation contents. The airport guidance robot 2400 may further include a touch monitor 2470. And a route guidance request signal may be received via the touch monitor 2470. [ And the route guidance request signal may include destination information. The airport guidance robot 2400 may further include a position recognition unit 2420. The location recognition unit 2420 may include LiDAR and Wi-Fi modules. The control unit 2480 can detect the current position of the airport guidance robot 2400 through the position recognition unit 2420. [ The control unit 2480 can calculate the movement route using the detected current position information and the destination information. The type of the guidance content may include at least one of a 2D navigation image, a 2D navigation image, a 3D navigation image, a 3D navigation image, and a hologram navigation. The control unit 2480 can control the 2D navigation image, the 2D navigation image, the 3D navigation image, and the 3D navigation image to be output on the inner wall surface of the airport. Then, the control unit 2480 can control to output the hologram navigation on the space. The output section 2460 includes a projection section for projecting an image or a pattern,

투사부의 위치를 조절하는 투사 조절부를 포함할 수 있다. 그리고 제어부(2480)는, 길 안내 컨텐츠를 투사할 공간을 향해 기 정해진 패턴을 투사할 수 있다. 그리고 제어부(2480)는, 투사된 패턴에 기초하여 공간의 구조를 분석할 수 있다. 그리고 제어부(2480)는, 분석된 공간의 구조에 기초하여 적어도 하나 이상의 투사 영역을 획득할 수 있다. 그리고 제어부(2480)는, 투사부에서 투사된 패턴의 모양 변화를 감지할 수 있다. 그리고 제어부(2480)는, 패턴의 모양 변화가 감지되는 영역은 투사하기 부적절한 영역으로 판단할 수 있다. 그리고 제어부(2480)는, 패턴의 모양 변화가 감지되지 않는 영역은 투사하기 적절한 영역으로 판단할 수 있다. 공항용 안내 로봇(2400)은 주위 공간 영상을 촬영하는 카메라를 더 포함할 수 있다. 그리고 제어부(2480)는, 촬영된 주위 공간 영상에 기초하여 주위 공간의 구조를 분석할 수 있다. 투사부는 길 안내 컨텐츠 보정을 위한 가이드라인을 더 투사할 수 있다. 그리고 카메라(2450)는 투사된 가이드라인을 더 촬영할 수 있다. 그리고 제어부(2480)는, 투사된 가이드라인과 촬영된 가이드라인을 비교한 결과에 기초하여 캘리브레이션 영상을 생성할 수 있다. 그리고 제어부(2480)는, 길 안내 컨텐츠를 투사하는 경우 길 안내 컨텐츠를 캘리브레이션 영상과 함께 처리하여 투사하도록 제어할 수 있다. 통신부(2430)는 이동 경로를 촬영하는 CCTV 촬영 영상 데이터를 수신할 수 있다. 그리고 제어부(2480)는, CCTV 촬영 영상 데이터를 이용하여 길 안내 컨텐츠를 생성할 수 있다. 공항용 안내 로봇(2400)은 길 안내 요청 신호를 입력한 사용자를 촬영하는 카메라(2450)를 더 포함할 수 있다. 그리고 제어부(2480)는, 촬영된 사용자 이미지를CCTV 촬영 영상 데이터에 부가하여 길 안내 컨텐츠를 생성할 수 있다. And a projection adjusting unit for adjusting the position of the projection unit. The control unit 2480 can project a predetermined pattern toward a space for projecting the guidance contents. The control unit 2480 can analyze the structure of the space based on the projected pattern. The control unit 2480 can acquire at least one projection area based on the structure of the analyzed space. The control unit 2480 can detect a change in the shape of the pattern projected from the projection unit. The control unit 2480 can determine that the area where the shape change of the pattern is sensed is an inappropriate area for projection. The control unit 2480 can determine that the region where the shape change of the pattern is not detected is an appropriate region for projection. The airport guidance robot 2400 may further include a camera for photographing the surrounding space image. Then, the control unit 2480 can analyze the structure of the surrounding space based on the captured surrounding spatial image. The projection unit can further project a guideline for correcting the guidance contents. The camera 2450 can further photograph the projected guideline. The control unit 2480 can generate a calibration image based on a result of comparing the projected guide line with the photographed guide line. In addition, the controller 2480 may control to process the route guidance content together with the calibration image when projecting the route guidance content. The communication unit 2430 can receive the CCTV photographed image data for photographing the moving route. Then, the control unit 2480 can generate the route guidance content using the CCTV shot image data. The airport guidance robot 2400 may further include a camera 2450 for photographing a user who has input the route guidance request signal. Then, the control unit 2480 can add the photographed user image to the CCTV photographed image data to generate the guiding content.

처리 시스템에 의해 실행하기 위한 컴퓨터-실행가능 명령들을 포함하는 컴퓨터-판독가능 저장 매체로서, 길 안내 컨텐츠를 제공하기 위한 상기 컴퓨터-실행가능 명령들은, 길 안내 요청 신호를 수신하는 명령들, 현재 위치로부터 목적지까지의 이동 경로를 계산하는 명령들, 상기 이동 경로에 기초하는 길 안내 컨텐츠를 생성하는 명령들 및 상기 길 안내 컨텐츠의 타입에 따라 상기 길 안내 컨텐츠를 출력하는 명령들을 포함할 수 있다. 그리고, 상기 컴퓨터-실행가능 명령들은, 현재 위치를 디텍팅하는 명령들 및 상기 디텍팅된 현재 위치 정보와 상기 목적지 정보를 이용하여 상기 이동 경로를 계산하는 명령들을 더 포함할 수 있다. 상기 길 안내 컨텐츠의 타입은 2D 네비게이션 이미지, 2D 네비게이션 영상, 3D 네비게이션 이미지, 3D 네비게이션 영상 및 홀로그램 네비게이션 중 적어도 하나일 수 있다. 상기 컴퓨터-실행가능 명령들은, 상기 길 안내 컨텐츠를 투사할 공간을 향해 기 정해진 패턴을 투사하는 명령들, 상기 투사된 패턴에 기초하여 상기 공간의 구조를 분석하는 명령들 및 상기 분석된 공간의 구조에 기초하여 적어도 하나 이상의 투사 영역을 획득하는 명령들을 더 포함할 수 있다. 상기 컴퓨터-실행가능 명령들은, 투사된 패턴의 모양 변화를 감지하는 명령들 및 상기 패턴의 모양 변화가 감지되는 영역은 투사하기 부적절한 영역으로 판단하고, 상기 패턴의 모양 변화가 감지되지 않는 영역은 투사하기 적절한 영역으로 판단하는 명령들을 더 포함할 수 있다. 15. A computer-readable storage medium having computer-executable instructions for execution by a processing system, the computer-executable instructions for providing route guidance content comprising instructions for receiving a route guidance request signal, Instructions for generating a route guidance content based on the movement route, and instructions for outputting the route guidance content according to the type of the route guidance content. The computer-executable instructions may further include instructions for detecting the current location and instructions for calculating the travel route using the detected current location information and the destination information. The type of the navigation contents may be at least one of a 2D navigation image, a 2D navigation image, a 3D navigation image, a 3D navigation image, and a hologram navigation. The computer-executable instructions comprising instructions for projecting a predetermined pattern toward a space to project the navigation content, instructions for analyzing the structure of the space based on the projected pattern, And acquiring at least one or more projection areas based on the at least one projection area. Wherein the computer-executable instructions cause the computer to execute the steps of: detecting a shape change of a projected pattern; determining an area in which a shape change of the pattern is sensed as an inappropriate region for projection; And judges to be an appropriate region to be described below.

본 발명의 다른 일 실시예에 의한 공항용 안내 로봇(2400)은 카메라(2450)를 포함할 수 있다. 그리고 공항용 안내 로봇(2400)은, 범위 내의 물체를 센싱하는 센서(2490)를 포함할 수 있다. 그리고 공항용 안내 로봇(2400)은, 서버로부터 데이터를 수신하는 통신부(2430)을 포함할 수 있다. 그리고 공항용 안내 로봇(2400)은, 이미지를 처리하는 이미지 프로세서(2440)을 포함할 수 있다. 그리고 공항용 안내 로봇(2400)은, 처리된 이미지를 출력하는 출력부(2460)를 포함할 수 있다. 그리고 공항용 안내 로봇(2400)은 제어부(2480)을 포함할 수 있다. 센서(2490)는 기 정해진 범위 내에 사용자를 감지할 수 있다. 카메라(2450)은 사용자를 촬영할 수 있다. 그리고 제어부(2480)는 촬영된 사용자의 이미지를 통해 사용자 나이를 결정할 수 있다. 그리고 제어부(2480)는 결정된 사용자 나이에 맵핑된 멀티미디어 컨텐츠를 수신할 수 있다. 그리고 제어부(2480)는 수신된 멀티미디어 컨텐츠를 출력하도록 제어할 수 있다. 결정된 사용자의 나이가 30세 이상인 경우, 멀티미디어 컨텐츠는 뉴스 컨텐츠일 수 있다. 결정된 사용자의 나이가 10세 이하인 경우, 멀티미디어 컨텐츠는 애니메이션 컨텐츠 일 수 있다. The airport guidance robot 2400 according to another embodiment of the present invention may include a camera 2450. [ The airport guidance robot 2400 may include a sensor 2490 for sensing an object within the range. The airport guidance robot 2400 may include a communication unit 2430 that receives data from the server. The airport guidance robot 2400 may include an image processor 2440 for processing images. The airport guidance robot 2400 may include an output unit 2460 for outputting the processed image. The airport guidance robot 2400 may include a control unit 2480. [ The sensor 2490 can sense the user within a predetermined range. The camera 2450 can take a picture of the user. The control unit 2480 can determine the user age through the image of the photographed user. The control unit 2480 may receive the multimedia content mapped to the determined user age. The control unit 2480 can control to output the received multimedia contents. If the determined user age is 30 years or older, the multimedia content may be news content. If the determined age of the user is 10 years or less, the multimedia content may be animated content.

본 발명의 또 다른 일 실시예에 의한 공항용 안내 로봇(2400)은 바코드 리더기(2495)를 포함할 수 있다. 그리고 공항용 안내 로봇(2400)은 서버로부터 데이터를 수신하는 통신부(2430)을 포함할 수 있다. 그리고 공항용 안내 로봇(2400)은 이미지를 처리하는 이미지 프로세서(2440)을 포함할 수 있다. 그리고 공항용 안내 로봇(2400)은 처리된 이미지를 출력하는 출력부(2460)를 포함할 수 있다. 그리고 공항용 안내 로봇(2400)은 제어부(2480)를 포함할 수 있다. 바코드 리더기(2495)는 비행기 탑승 티켓 정보를 리드(read)할 수 있다. 통신부(2430)는 리드된 정보에 기초하여 비행기 탑승 티켓 정보에 맵핑된 비행 데이터를 수신할 수 있다. 그리고 제어부(2480)은, 신된 비행 데이터를 가공하여 비행 안내 컨텐츠를 생성하여 출력하도록 제어할 수 있다. 비행 안내 컨텐츠는 비행기의 기종 정보, 총 비행 시간 정보, 비행기 탑승 게이트 정보, 비행기 탑승 시간 정보, 비행 경로 정보를 포함할 수 있다.The airport guidance robot 2400 according to another embodiment of the present invention may include a barcode reader 2495. [ The airport guidance robot 2400 may include a communication unit 2430 for receiving data from the server. And the airport guidance robot 2400 may include an image processor 2440 for processing images. The airport guidance robot 2400 may include an output unit 2460 for outputting the processed image. The airport guidance robot 2400 may include a control unit 2480. [ The barcode reader 2495 can read the boarding ticket information. The communication unit 2430 can receive the flight data mapped to the boarding ticket information based on the read information. Then, the control unit 2480 can control to generate and output the flight guidance contents by processing the updated flight data. The flight guide contents may include information of the aircraft type, total flight time information, flight boarding gate information, flight time information, and flight path information.

전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 공항용 로봇의 AP(150)를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The present invention described above can be embodied as computer-readable codes on a medium on which a program is recorded. The computer readable medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of the computer readable medium include a hard disk drive (HDD), a solid state disk (SSD), a silicon disk drive (SDD), a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, , And may also be implemented in the form of a carrier wave (e.g., transmission over the Internet). The computer may also include an AP 150 of an airport robot. Accordingly, the above description should not be construed in a limiting sense in all respects and should be considered illustrative. The scope of the present invention should be determined by rational interpretation of the appended claims, and all changes within the scope of equivalents of the present invention are included in the scope of the present invention.

Claims (20)

공항용 안내 로봇에 있어서,
공항 지도 데이터를 저장하는 맵(map) 관리모듈;
데이터를 송수신하는 통신부;
이미지를 처리하는 이미지 프로세서;
상기 처리된 이미지를 출력하는 출력부; 및
상기 공항용 안내 로봇의 동작을 제어하는 제어부를 포함하고,
상기 제어부는,
길 안내 요청 신호를 수신하는 경우,
현재 위치로부터 목적지까지의 이동 경로를 계산하고, 상기 이동 경로에 기초하는 길 안내 컨텐츠를 생성하고, 상기 길 안내 컨텐츠의 타입에 따라 상기 길 안내 컨텐츠를 출력하도록 제어하는,
공항용 안내 로봇.
A guide robot for an airport, comprising:
A map management module for storing airport map data;
A communication unit for transmitting and receiving data;
An image processor for processing the image;
An output unit outputting the processed image; And
And a control unit for controlling the operation of the airport guidance robot,
Wherein,
When receiving the route guidance request signal,
Calculating travel paths from a current location to a destination, generating route guidance content based on the travel route, and controlling the route guidance content to be output according to the type of the route guidance content,
Airport guidance robot.
제1 항에 있어서,
상기 공항용 안내 로봇은 터치 모니터를 더 포함하고,
상기 길 안내 요청 신호는 상기 터치 모니터를 통해 수신되고,
상기 길 안내 요청 신호는 목적지 정보를 포함하는,
공항용 안내 로봇.
The method according to claim 1,
Wherein the airport guidance robot further comprises a touch monitor,
The route guidance request signal is received through the touch monitor,
The route guidance request signal includes destination information,
Airport guidance robot.
제2 항에 있어서,
상기 공항용 안내 로봇은 위치 인식부를 더 포함하고,
상기 위치 인식부는 LiDAR 및 Wi-Fi 모듈을 포함하고,
상기 제어부는,
상기 위치 인식부를 통해 상기 공항용 안내 로봇의 현재 위치를 디텍팅하고,
상기 디텍팅된 현재 위치 정보와 상기 목적지 정보를 이용하여 상기 이동 경로를 계산하는,
공항용 안내 로봇.
3. The method of claim 2,
The airport guidance robot further includes a position recognition unit,
Wherein the location recognition unit includes an LiDAR and a Wi-Fi module,
Wherein,
Detecting the current position of the airport guidance robot through the position recognition unit,
Calculating the movement route using the detected current position information and the destination information,
Airport guidance robot.
제1 항에 있어서,
상기 길 안내 컨텐츠의 타입은 2D 네비게이션 이미지, 2D 네비게이션 영상, 3D 네비게이션 이미지, 3D 네비게이션 영상 및 홀로그램 네비게이션 중 적어도 하나를 포함하고,
상기 제어부는,
상기 2D 네비게이션 이미지, 2D 네비게이션 영상, 3D 네비게이션 이미지, 3D 네비게이션 영상은 공항 내 벽면 상에 출력하고,
상기 홀로그램 네비게이션은 공간 상에 출력하도록 제어하는,
공항용 안내 로봇.
The method according to claim 1,
The type of the navigation contents includes at least one of a 2D navigation image, a 2D navigation image, a 3D navigation image, a 3D navigation image, and a hologram navigation,
Wherein,
The 2D navigation image, the 2D navigation image, the 3D navigation image, and the 3D navigation image are output on the inner wall surface of the airport,
And the hologram navigation is controlled so as to be output in space,
Airport guidance robot.
제1 항에 있어서,
상기 출력부는
이미지 또는 패턴을 투사하는 투사부; 및
상기 투사부의 위치를 조절하는 투사 조절부
를 포함하고,
상기 제어부는,
상기 길 안내 컨텐츠를 투사할 공간을 향해 기 정해진 패턴을 투사하고, 상기 투사된 패턴에 기초하여 상기 공간의 구조를 분석하고, 상기 분석된 공간의 구조에 기초하여 적어도 하나 이상의 투사 영역을 획득하는,
공항용 안내 로봇.
The method according to claim 1,
The output
A projection part for projecting an image or a pattern; And
The projection adjusting unit adjusts the position of the projection unit.
Lt; / RTI >
Wherein,
Projecting a predetermined pattern toward a space to project the guidance content, analyzing the structure of the space based on the projected pattern, and acquiring at least one projection area based on the structure of the analyzed space,
Airport guidance robot.
제5 항에 있어서,
상기 제어부는,
상기 투사부에서 투사된 패턴의 모양 변화를 감지하고, 상기 패턴의 모양 변화가 감지되는 영역은 투사하기 부적절한 영역으로 판단하고, 상기 패턴의 모양 변화가 감지되지 않는 영역은 투사하기 적절한 영역으로 판단하는,
공항용 안내 로봇.
6. The method of claim 5,
Wherein,
A region in which a shape change of the pattern is sensed is determined to be an inappropriate region to be projected and a region in which a shape change of the pattern is not sensed is determined to be an appropriate region for projection ,
Airport guidance robot.
제5 항에 있어서,
상기 공항용 안내 로봇이 위치한 주위 공간 영상을 촬영하는 카메라를 더 포함하고,
상기 제어부는, 상기 촬영된 주위 공간 영상에 기초하여 상기 주위 공간의 구조를 분석하는,
공항용 안내 로봇.
6. The method of claim 5,
Further comprising a camera for photographing an ambient space image in which the airport guidance robot is located,
Wherein the control unit analyzes the structure of the surrounding space based on the photographed surrounding spatial image,
Airport guidance robot.
제7 항에 있어서,
상기 투사부는 길 안내 컨텐츠 보정을 위한 가이드라인을 더 투사하고,
상기 카메라는 투사된 가이드라인을 더 촬영하고,
상기 제어부는,
상기 투사된 가이드라인과 상기 촬영된 가이드라인을 비교한 결과에 기초하여 캘리브레이션 영상을 생성하고, 상기 길 안내 컨텐츠를 투사하는 경우 상기 길 안내 컨텐츠를 상기 캘리브레이션 영상과 함께 처리하여 투사하도록 제어하는,
공항용 안내 로봇.
8. The method of claim 7,
The projection unit further projects a guideline for guiding content correction,
The camera further photographs the projected guideline,
Wherein,
Generating a calibration image based on a result of comparing the projected guideline and the photographed guideline, and controlling the projection and processing of the guiding content together with the calibration image when projecting the guiding content,
Airport guidance robot.
제1 항에 있어서,
상기 통신부를 통해 상기 이동 경로를 촬영하는 CCTV 촬영 영상 데이터를 수신하고,
상기 CCTV 촬영 영상 데이터를 이용하여 길 안내 컨텐츠를 생성하는,
공항용 안내 로봇.
The method according to claim 1,
Receiving the CCTV photographed image data for photographing the moving route through the communication unit,
Generating guidance contents using the CCTV photographed image data;
Airport guidance robot.
제10 항에 있어서,
상기 공항용 안내 로봇은 상기 길 안내 요청 신호를 입력한 사용자를 촬영하는 카메라를 더 포함하고,
상기 제어부는 촬영된 사용자 이미지를 상기 CCTV 촬영 영상 데이터에 부가하여 상기 길 안내 컨텐츠를 생성하는,
공항용 안내 로봇.
11. The method of claim 10,
Wherein the airport guidance robot further includes a camera for photographing a user who has input the route guidance request signal,
Wherein the control unit adds the photographed user image to the CCTV photographed image data to generate the guiding content,
Airport guidance robot.
처리 시스템에 의해 실행하기 위한 컴퓨터-실행가능 명령들을 포함하는 컴퓨터-판독가능 저장 매체로서,
길 안내 컨텐츠를 제공하기 위한 상기 컴퓨터-실행가능 명령들은,
길 안내 요청 신호를 수신하는 명령들;
현재 위치로부터 목적지까지의 이동 경로를 계산하는 명령들;
상기 이동 경로에 기초하는 길 안내 컨텐츠를 생성하는 명령들; 및
상기 길 안내 컨텐츠의 타입에 따라 상기 길 안내 컨텐츠를 출력하는 명령들을 포함하는,
컴퓨터-판독가능 저장 매체.
18. A computer-readable storage medium comprising computer-executable instructions for execution by a processing system,
The computer-executable instructions for providing route guidance content,
Instructions for receiving a route guidance request signal;
Instructions for calculating a travel path from a current location to a destination;
Instructions for generating route guidance content based on the movement route; And
And outputting the navigation contents according to the type of the navigation contents.
Computer-readable storage medium.
제11 항에 있어서,
현재 위치를 디텍팅하는 명령들; 및
상기 디텍팅된 현재 위치 정보와 상기 목적지 정보를 이용하여 상기 이동 경로를 계산하는 명령들을 더 포함하는,
컴퓨터-판독가능 저장 매체.
12. The method of claim 11,
Instructions for detecting the current location; And
Further comprising instructions for calculating the movement path using the detected current position information and the destination information,
Computer-readable storage medium.
제11 항에 있어서,
상기 길 안내 컨텐츠의 타입은 2D 네비게이션 이미지, 2D 네비게이션 영상, 3D 네비게이션 이미지, 3D 네비게이션 영상 및 홀로그램 네비게이션 중 적어도 하나인,
컴퓨터-판독가능 저장 매체.
12. The method of claim 11,
Wherein the type of the navigation contents is at least one of a 2D navigation image, a 2D navigation image, a 3D navigation image, a 3D navigation image, and a hologram navigation,
Computer-readable storage medium.
제11 항에 있어서,
기 길 안내 컨텐츠를 투사할 공간을 향해 기 정해진 패턴을 투사하는 명령들;
상기 투사된 패턴에 기초하여 상기 공간의 구조를 분석하는 명령들; 및
상기 분석된 공간의 구조에 기초하여 적어도 하나 이상의 투사 영역을 획득하는 명령들을 더 포함하는,
컴퓨터-판독가능 저장 매체.
12. The method of claim 11,
Instructions for projecting a predetermined pattern toward a space for projecting the guiding content;
Instructions for analyzing the structure of the space based on the projected pattern; And
Further comprising instructions for obtaining at least one projection area based on the structure of the analyzed space.
Computer-readable storage medium.
제14 항에 있어서,
투사된 패턴의 모양 변화를 감지하는 명령들; 및
상기 패턴의 모양 변화가 감지되는 영역은 투사하기 부적절한 영역으로 판단하고, 상기 패턴의 모양 변화가 감지되지 않는 영역은 투사하기 적절한 영역으로 판단하는 명령들을 더 포함하는,
컴퓨터-판독가능 저장 매체.
15. The method of claim 14,
Instructions for sensing a shape change of the projected pattern; And
Further comprising instructions for determining an area in which a shape change of the pattern is sensed as an inappropriate region for projection and an area in which a shape change of the pattern is not sensed as an appropriate area for projection,
Computer-readable storage medium.
공항용 안내 로봇에 있어서,
카메라;
범위 내의 물체를 센싱하는 센서;
서버로부터 데이터를 수신하는 통신부;
이미지를 처리하는 이미지 프로세서;
상기 처리된 이미지를 출력하는 출력부; 및
상기 공항용 안내 로봇의 동작을 제어하는 제어부를 포함하고,
상기 센서로부터 기 정해진 범위 내에 사용자가 감지되면, 상기 카메라가 상기 사용자를 촬영하고,
상기 제어부는 촬영된 사용자의 이미지를 통해 사용자 나이를 결정하고, 결정된 사용자 나이에 맵핑된 멀티미디어 컨텐츠를 수신하고, 상기 수신된 멀티미디어 컨텐츠를 출력하도록 제어하는,
공항용 안내 로봇.
A guide robot for an airport, comprising:
camera;
A sensor for sensing objects within the range;
A communication unit for receiving data from a server;
An image processor for processing the image;
An output unit outputting the processed image; And
And a control unit for controlling the operation of the airport guidance robot,
When the user is detected within a predetermined range from the sensor, the camera photographs the user,
Wherein the control unit determines the user age through an image of the photographed user, receives the multimedia content mapped to the determined user age, and controls the output of the received multimedia content,
Airport guidance robot.
제16 항에 있어서,
상기 결정된 사용자의 나이가 30세 이상인 경우,
상기 멀티미디어 컨텐츠는 뉴스 컨텐츠를 포함하는,
공항용 안내 로봇.
17. The method of claim 16,
If the determined age of the user is 30 years old or older,
Wherein the multimedia content includes news content,
Airport guidance robot.
제16 항에 있어서,
상기 결정된 사용자의 나이가 10세 이하인 경우,
상기 멀티미디어 컨텐츠는 애니메이션 컨텐츠를 포함하는,
공항용 안내 로봇.
17. The method of claim 16,
If the determined age of the user is 10 years or less,
Wherein the multimedia content includes animation content,
Airport guidance robot.
공항용 안내 로봇에 있어서,
바코드 리더기;
서버로부터 데이터를 수신하는 통신부;
이미지를 처리하는 이미지 프로세서;
상기 처리된 이미지를 출력하는 출력부; 및
상기 공항용 안내 로봇의 동작을 제어하는 제어부를 포함하고,
상기 바코드 리더기는 비행기 탑승 티켓 정보를 리드(read)하고,
상기 통신부는 상기 리드된 정보에 기초하여 상기 비행기 탑승 티켓 정보에 맵핑된 비행 데이터를 수신하고,
상기 제어부는 수신된 비행 데이터를 가공하여 비행 안내 컨텐츠를 생성하여 출력하도록 제어하는,
공항용 안내 로봇.
A guide robot for an airport, comprising:
Barcode reader;
A communication unit for receiving data from a server;
An image processor for processing the image;
An output unit outputting the processed image; And
And a control unit for controlling the operation of the airport guidance robot,
The barcode reader reads the boarding ticket information,
Wherein the communication unit receives the flight data mapped to the boarding ticket information based on the read information,
Wherein the control unit processes the received flight data to generate and output flight guide contents,
Airport guidance robot.
제19 항에 있어서,
상기 비행 안내 컨텐츠는 비행기의 기종 정보, 총 비행 시간 정보, 비행기 탑승 게이트 정보, 비행기 탑승 시간 정보, 비행 경로 정보를 포함하는,
공항용 안내 로봇.
20. The method of claim 19,
The flight guide contents may include at least one of the type information of the airplane, the total flight time information, the boarding gate information, the flight time information,
Airport guidance robot.
KR1020160130736A 2016-10-10 2016-10-10 Guidance robot for airport and method thereof KR102597216B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160130736A KR102597216B1 (en) 2016-10-10 2016-10-10 Guidance robot for airport and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160130736A KR102597216B1 (en) 2016-10-10 2016-10-10 Guidance robot for airport and method thereof

Publications (2)

Publication Number Publication Date
KR20180039439A true KR20180039439A (en) 2018-04-18
KR102597216B1 KR102597216B1 (en) 2023-11-03

Family

ID=62082731

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160130736A KR102597216B1 (en) 2016-10-10 2016-10-10 Guidance robot for airport and method thereof

Country Status (1)

Country Link
KR (1) KR102597216B1 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111152232A (en) * 2018-11-08 2020-05-15 现代自动车株式会社 Service robot and method for operating the same
KR102216968B1 (en) * 2019-09-06 2021-02-18 주식회사 원더풀플랫폼 System for helper using cradle
WO2021045271A1 (en) * 2019-09-05 2021-03-11 엘지전자 주식회사 Robot
CN112734885A (en) * 2020-11-27 2021-04-30 北京顺天立安科技有限公司 Virtual portrait robot based on government affairs hall manual
KR20210066091A (en) * 2019-11-27 2021-06-07 한국생산기술연구원 A robot cleaner using lidar member and image photographing member and SLAM-map generation method thereof
US20210353808A1 (en) * 2020-05-14 2021-11-18 Micro-Star Int'l Co., Ltd. Field disinfection mobile robot and control method thereof
WO2022019376A1 (en) * 2020-07-22 2022-01-27 주식회사 알지티 Restaurant service robot
CN114296448A (en) * 2021-12-10 2022-04-08 北京云迹科技股份有限公司 Robot leading method and device, electronic equipment and storage medium
KR102435371B1 (en) * 2021-05-31 2022-08-23 주식회사 아트와 Unmanned robot for water quality management and control method thereof
KR102505225B1 (en) * 2021-10-22 2023-03-02 (주)인티그리트 Self-driving devices that provide visualized virtual guidance information and how they work
KR20230053979A (en) 2021-10-15 2023-04-24 동아대학교 산학협력단 Meta-structure processing system and operating method thereof and wearable band

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080090150A (en) * 2007-04-04 2008-10-08 삼성전자주식회사 Service robot, service system using service robot and controlling method of the service system using service robot
KR100904191B1 (en) * 2008-05-29 2009-06-22 (주)다사로봇 Guidance robot
KR20090076721A (en) * 2008-01-09 2009-07-13 주식회사 대우일렉트로닉스 Method for obtaining location of cleaning robot
JP2016073630A (en) * 2014-10-03 2016-05-12 国立大学法人豊橋技術科学大学 Movement training support device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080090150A (en) * 2007-04-04 2008-10-08 삼성전자주식회사 Service robot, service system using service robot and controlling method of the service system using service robot
KR20090076721A (en) * 2008-01-09 2009-07-13 주식회사 대우일렉트로닉스 Method for obtaining location of cleaning robot
KR100904191B1 (en) * 2008-05-29 2009-06-22 (주)다사로봇 Guidance robot
JP2016073630A (en) * 2014-10-03 2016-05-12 国立大学法人豊橋技術科学大学 Movement training support device

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111152232A (en) * 2018-11-08 2020-05-15 现代自动车株式会社 Service robot and method for operating the same
WO2021045271A1 (en) * 2019-09-05 2021-03-11 엘지전자 주식회사 Robot
KR102216968B1 (en) * 2019-09-06 2021-02-18 주식회사 원더풀플랫폼 System for helper using cradle
WO2021045386A1 (en) * 2019-09-06 2021-03-11 주식회사 원더풀플랫폼 Helper system using cradle
KR20210066091A (en) * 2019-11-27 2021-06-07 한국생산기술연구원 A robot cleaner using lidar member and image photographing member and SLAM-map generation method thereof
US20210353808A1 (en) * 2020-05-14 2021-11-18 Micro-Star Int'l Co., Ltd. Field disinfection mobile robot and control method thereof
JP2023518165A (en) * 2020-07-22 2023-04-28 アールジーティー インコーポレイテッド canteen service robot
WO2022019376A1 (en) * 2020-07-22 2022-01-27 주식회사 알지티 Restaurant service robot
KR20220012050A (en) * 2020-07-22 2022-02-03 주식회사 알지티 Robot for restaurant service
AU2020459868B2 (en) * 2020-07-22 2023-10-26 RGT Inc. Restaurant service robot
CN112734885A (en) * 2020-11-27 2021-04-30 北京顺天立安科技有限公司 Virtual portrait robot based on government affairs hall manual
KR102435371B1 (en) * 2021-05-31 2022-08-23 주식회사 아트와 Unmanned robot for water quality management and control method thereof
KR20230053979A (en) 2021-10-15 2023-04-24 동아대학교 산학협력단 Meta-structure processing system and operating method thereof and wearable band
KR102505225B1 (en) * 2021-10-22 2023-03-02 (주)인티그리트 Self-driving devices that provide visualized virtual guidance information and how they work
WO2023068578A1 (en) * 2021-10-22 2023-04-27 (주)인티그리트 Autonomous driving device for providing visualized virtual guide information, and operating method therefor
CN114296448A (en) * 2021-12-10 2022-04-08 北京云迹科技股份有限公司 Robot leading method and device, electronic equipment and storage medium

Also Published As

Publication number Publication date
KR102597216B1 (en) 2023-11-03

Similar Documents

Publication Publication Date Title
KR102597216B1 (en) Guidance robot for airport and method thereof
US11968479B2 (en) Method of tracking a mobile device and method of generating a geometrical model of a real environment using a camera of a mobile device
JP7341652B2 (en) Information processing device, information processing method, program, and system
CN106993181B (en) More VR/AR equipment collaboration systems and Synergistic method
CN110959143B (en) Information processing device, information processing method, program, and mobile body
US20200126239A1 (en) Methods and system for multi-target tracking
KR102559745B1 (en) Airport robot, and airport robot system including same
CN106662646A (en) Method for building a map of probability of one of absence and presence of obstacles for an autonomous robot
US11378413B1 (en) Augmented navigational control for autonomous vehicles
CN110458897A (en) Multi-cam automatic calibration method and system, monitoring method and system
US10579138B2 (en) Head-mounted sensor system
CN113116224B (en) Robot and control method thereof
US20200012335A1 (en) Individual visual immersion device for a moving person with management of obstacles
US10089784B2 (en) Head-mounted mapping methods
CN106873300B (en) Virtual space projection method and device for intelligent robot
KR102599784B1 (en) Airport robot
KR101319526B1 (en) Method for providing location information of target using mobile robot
Schreiter et al. The magni human motion dataset: Accurate, complex, multi-modal, natural, semantically-rich and contextualized
JP7422361B2 (en) Tracking devices and programs
JP7354528B2 (en) Autonomous mobile device, method and program for detecting dirt on lenses of autonomous mobile device
JP7456590B2 (en) Tracking devices and programs
Suzuki et al. A vision system with wide field of view and collision alarms for teleoperation of mobile robots
Satoh et al. A secure and reliable next generation mobility—An intelligent electric wheelchair with a stereo omni-directional camera system—
Swarna Priya et al. Estimating the distance of a human from an object using 3d image reconstruction
Calibo Obstacle detection and avoidance on a mobile robotic platform using active depth sensing

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant