KR102613624B1 - Cleaning robot for airport and method thereof - Google Patents

Cleaning robot for airport and method thereof Download PDF

Info

Publication number
KR102613624B1
KR102613624B1 KR1020160130734A KR20160130734A KR102613624B1 KR 102613624 B1 KR102613624 B1 KR 102613624B1 KR 1020160130734 A KR1020160130734 A KR 1020160130734A KR 20160130734 A KR20160130734 A KR 20160130734A KR 102613624 B1 KR102613624 B1 KR 102613624B1
Authority
KR
South Korea
Prior art keywords
cleaning
airport
robot
information
mobile terminal
Prior art date
Application number
KR1020160130734A
Other languages
Korean (ko)
Other versions
KR20180039437A (en
Inventor
최지은
정재식
최규천
김동훈
박중태
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020160130734A priority Critical patent/KR102613624B1/en
Publication of KR20180039437A publication Critical patent/KR20180039437A/en
Application granted granted Critical
Publication of KR102613624B1 publication Critical patent/KR102613624B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/0085Cleaning
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2805Parameters or conditions being sensed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1661Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1682Dual arm manipulator; Coordination of several manipulators

Abstract

본 발명의 일 실시예에 의한 공항용 청소 로봇은 데이터를 송수신하는 통신부, 위치 정보를 리드하는 위치 인식부, 청소 및 이동을 수행하는 구동부, 사물의 외관을 촬영하는 카메라 및 상기 공항용 청소 로봇의 동작을 제어하는 제어부를 포함하고, 청소 요청 메시지를 수신하면, 상기 제어부는 상기 청소 요청 메시지에 포함된 위치 정보를 리드하여 청소 장소로 이동하고, 상기 청소 요청 메시지에 포함된 제1 청소 대상물 정보를 리드하고, 상기 청소 장소에서 청소 대상물을 스캔하고, 스캔된 청소 대상물의 이미지로 제2 청소 대상물 정보를 리드하고, 상기 제1 청소 대상물 정보 및 상기 제2 청소 대상물 정보가 일치하는 경우, 상기 청소 대상물을 청소하도록 제어하는 것을 특징으로 한다.An airport cleaning robot according to an embodiment of the present invention includes a communication unit that transmits and receives data, a location recognition unit that reads location information, a driving unit that performs cleaning and movement, a camera that photographs the appearance of an object, and the airport cleaning robot. It includes a control unit that controls the operation, and when receiving a cleaning request message, the control unit reads the location information included in the cleaning request message, moves to the cleaning location, and collects the first cleaning object information included in the cleaning request message. read, scan a cleaning object at the cleaning location, read second cleaning object information with an image of the scanned cleaning object, and if the first cleaning object information and the second cleaning object information match, the cleaning object It is characterized in that it is controlled to clean.

Description

공항용 청소 로봇 및 그의 동작 방법{CLEANING ROBOT FOR AIRPORT AND METHOD THEREOF}Airport cleaning robot and its operation method {CLEANING ROBOT FOR AIRPORT AND METHOD THEREOF}

본 발명은 공항에 배치되는 로봇 및 그의 동작 방법에 관한 것이다. 보다 상세하게는 공항에 배치되어 공항 내 쓰레기를 청소하는 공항용 청소 로봇에 관한 것이다. 공항용 청소 로봇은 공항 내 배치된 다양한 디바이스들과 데이터를 수신할 수 있다. 그리고, 수신되는 각종 데이터를 통해 효율적인 청소를 수행하는 청소 로봇 및 그의 동작 방법에 관한 것이다.The present invention relates to a robot deployed at an airport and its operating method. More specifically, it is about an airport cleaning robot that is deployed at the airport and cleans trash within the airport. Airport cleaning robots can receive data from various devices deployed within the airport. Additionally, it relates to a cleaning robot that performs efficient cleaning based on various types of data received and its operating method.

최근 딥러닝(Deep Learning) 기술, 자율 주행 기술, 자동 제어 기술, 사물인터넷 등의 발전으로 로봇의 기능이 확대되고 있다.Recently, the functions of robots are expanding due to developments in deep learning technology, autonomous driving technology, automatic control technology, and the Internet of Things.

각각의 기술을 구체적으로 설명하면, 딥러닝은 기계학습의 한 분야에 해당한다. 딥러닝은 프로그램에 미리 조건을 확인하고 명령을 설정해두는 방식이 아니라, 다양한 상황에 대해 프로그램이 유사한 판단을 내리도록 하는 기술이다. 따라서, 딥러닝에 따르면 컴퓨터가 인간의 뇌와 유사하게 사고할 수 있고, 방대한 양의 데이터 분석을 가능하게 한다.To explain each technology in detail, deep learning corresponds to a field of machine learning. Deep learning is a technology that allows the program to make similar decisions in various situations, rather than checking conditions and setting commands in advance in the program. Therefore, according to deep learning, computers can think similar to the human brain and enable the analysis of vast amounts of data.

자율 주행은 기계가 스스로 판단하여 이동하고, 장애물을 피할 수 있는 기술이다. 자율 주행 기술에 따르면 로봇은 센서를 통해 자율적으로 위치를 인식하여 이동하고 장애물을 피할 수 있게 된다.Autonomous driving is a technology that allows machines to make their own decisions to move and avoid obstacles. According to autonomous driving technology, robots can autonomously recognize their location through sensors and move and avoid obstacles.

자동 제어 기술은 기계에서 기계 상태를 검사한 계측 값을 제어 장치에 피드백하여 기계의 동작을 자동으로 제어하는 기술을 말한다. 따라서 사람의 조작 없는 제어가 가능하고, 목적하는 제어 대상을 목적하는 범위 내 즉, 목표 값에 이르도록 자동적으로 조절할 수 있다.Automatic control technology refers to a technology that automatically controls the operation of a machine by feeding back the measured values of the machine's status to the control device. Therefore, control without human operation is possible, and the desired control object can be automatically adjusted to reach the target value, that is, within the desired range.

사물인터넷(Internet of Things)은 인터넷을 기반으로 모든 사물을 연결하여 사람과 사물, 사물과 사물 간의 정보를 상호 소통하는 지능형 기술 및 서비스를 말한다. 사물인터넷에 의해 인터넷에 연결된 기기들은 사람의 도움 없이 알아서 정보를 주고 받으며 자율적인 소통을 하게 된다.The Internet of Things refers to intelligent technologies and services that connect all objects based on the Internet to communicate information between people and objects, and between objects. Through the Internet of Things, devices connected to the Internet exchange information and communicate autonomously without human assistance.

로봇의 응용분야는 대체로 산업용, 의료용, 우주용, 해저용으로 분류된다. 예를 들면, 자동차 생산과 같은 기계 가공 공업에서는 로봇이 반복작업을 수행할 수 있다. 즉, 사람의 팔이 하는 작업을 한 번만 가르쳐 주면 몇 시간이든 같은 동작을 반복하는 산업로봇이 이미 많이 가동되고 있다.The application fields of robots are generally classified into industrial, medical, space, and undersea applications. For example, in machining industries such as automobile production, robots can perform repetitive tasks. In other words, many industrial robots are already in operation that can repeat the same movements for hours after being taught just once what a human arm does.

본 발명의 목적은 공항용 로봇과 공항 내 배치되는 다양한 디바이스들을 이용하여 청소 완성도를 높이는 것이다.The purpose of the present invention is to improve cleaning completeness using airport robots and various devices deployed within the airport.

본 발명의 다른 목적은 적재적소에 청소 로봇을 배치하여 청소 효율을 향상시키는 것이다.Another object of the present invention is to improve cleaning efficiency by placing a cleaning robot in the right place.

본 발명의 또 다른 목적은 공항 내에서 사용자들이 청소 로봇을 제어하여 손쉽게 청소를 수행하게 하는 것이다. Another purpose of the present invention is to allow users to easily perform cleaning by controlling a cleaning robot within the airport.

본 발명에 따른 공항용 청소 로봇은 공항 내 CCTV, 서버, 사용자 단말기 등으로부터 데이터를 수신할 수 있다. 공항용 청소 로봇은 수신된 데이터에서 청소 대상물을 디텍팅할 수 있다. The airport cleaning robot according to the present invention can receive data from CCTV, servers, user terminals, etc. in the airport. Airport cleaning robots can detect cleaning objects from received data.

본 발명에 따른 공항용 청소 로봇은 청소 방식에 따라 복수 개의 타입으로 구성될 수 있다. 또한, 서버 또는 관리 로봇은 청소 대상물에 따라 청소를 수행할 수 있는 타입의 청소 로봇을 호출하여 청소할 수 있다.The airport cleaning robot according to the present invention may be composed of a plurality of types depending on the cleaning method. Additionally, the server or management robot can clean by calling a cleaning robot of a type that can perform cleaning according to the cleaning object.

본 발명에 따른 공항용 청소 로봇은 통신부를 통해 원격 제어 장치와 데이터 통신을 수행할 수 있다. 그리고, 사용자는 이동 단말기 등의 디스플레이부를 터치하여 청소 로봇을 조종할 수 있다.The airport cleaning robot according to the present invention can perform data communication with a remote control device through a communication unit. Additionally, the user can control the cleaning robot by touching the display unit of the mobile terminal.

본 발명에 따른 공항용 청소 로봇은 공항 내 CCTV, 서버, 사용자 단말기 등으로부터 데이터를 수신하여 청소 대상물을 디텍팅할 수 있다. 그 결과, 청소 로봇이 발견하지 못한 청소 대상물까지 찾아낼 수 있고, 청소 완성도를 높이는 효과를 가져온다.The airport cleaning robot according to the present invention can detect cleaning objects by receiving data from CCTV, servers, user terminals, etc. in the airport. As a result, it is possible to find cleaning objects that the cleaning robot could not find, which has the effect of increasing cleaning completeness.

본 발명에 따른 공항용 청소 로봇을 관리하는 서버 또는 관리 로봇은 청소 대상물 정보에 기초하여 매칭되는 청소 로봇을 선택할 수 있다. 따라서, 청소 대상물에 매칭되는 적절한 청소 로봇을 즉시 호출함으로써 청소 효율을 향상시킬 수 있다.The server or management robot that manages the airport cleaning robot according to the present invention can select a matching cleaning robot based on cleaning object information. Therefore, cleaning efficiency can be improved by immediately calling an appropriate cleaning robot that matches the cleaning object.

본 발명에 따른 공항용 청소 로봇은 사용자의 단말기 등의 원격 제어 장치에 의해 조종될 수 있다. 그 결과, 공항 내 사용자들은 스마트폰 등으로 손쉽게 청소 로봇을 조종하여 청소 대상물을 직접 청소할 수 있는 효과가 있다.The airport cleaning robot according to the present invention can be controlled by a remote control device such as a user's terminal. As a result, users within the airport can easily control the cleaning robot using their smartphones to directly clean the cleaning objects.

도 1은 본 발명의 일 실시예에 의한 공항 로봇의 하드웨어 구성을 도시한 블록도이다.
도 2는 본 발명의 다른 일 실시예에 의한 공항 로봇의 마이컴 및 AP의 구성을 자세하게 도시한 도면이다.
도 3은 본 발명의 실시 예에 따른 공항 로봇 시스템의 구조를 설명하기 위한 도면이다.
도 4는 본 발명과 관련된 이동 단말기를 설명하기 위한 블록도 이다.
도 5는 본 발명의 일 실시예에 의한 청소 로봇의 여러 종류를 설명하기 위한 도면이다.
도 6 및 도 7은 본 발명의 일 실시예에 의한 청소 로봇들 및 공항 내 설치된 CCTV 영상을 서버가 관리하는 일 예를 설명하기 위한 도면들이다.
도 8 내지 도 10은 공항 내 사용자가 청소 대상물을 촬영하여 서버에 전송하는 일 예를 설명하기 위한 도면들이다.
도 11 및 도 12는 본 발명의 일 실시예에 의한 관리 로봇이 청소 로봇을 호출하는 일 예를 설명하기 위한 도면들이다.
도 13 내지 도 15는 본 발명의 일 실시예에 의한 청소 로봇이 사물 인터넷 기술을 이용하여 쓰레기통을 정리하는 일 예를 설명하기 위한 도면들이다.
도 16 내지 도 19는 본 발명의 일 실시예에 의한 청소 로봇을 사용자가 원격 제어 장치로 제어하는 일 예를 설명하기 위한 도면들이다.
도 20은 본 발명의 일 실시예에 의한 공항용 청소 로봇의 구성을 블록도로 도시한 도면이다.
Figure 1 is a block diagram showing the hardware configuration of an airport robot according to an embodiment of the present invention.
Figure 2 is a diagram illustrating in detail the configuration of a microcomputer and AP of an airport robot according to another embodiment of the present invention.
Figure 3 is a diagram for explaining the structure of an airport robot system according to an embodiment of the present invention.
Figure 4 is a block diagram for explaining a mobile terminal related to the present invention.
Figure 5 is a diagram for explaining various types of cleaning robots according to an embodiment of the present invention.
Figures 6 and 7 are diagrams to explain an example in which a server manages cleaning robots and CCTV images installed in an airport according to an embodiment of the present invention.
Figures 8 to 10 are diagrams to explain an example in which a user in an airport photographs a cleaning object and transmits it to a server.
11 and 12 are diagrams for explaining an example in which a management robot calls a cleaning robot according to an embodiment of the present invention.
Figures 13 to 15 are diagrams to explain an example in which a cleaning robot organizes a trash can using Internet of Things technology according to an embodiment of the present invention.
Figures 16 to 19 are diagrams to explain an example in which a user controls a cleaning robot using a remote control device according to an embodiment of the present invention.
Figure 20 is a block diagram showing the configuration of an airport cleaning robot according to an embodiment of the present invention.

이하, 본 발명과 관련된 실시 예에 대하여 도면을 참조하여 보다 상세하게 설명한다. Hereinafter, embodiments related to the present invention will be described in more detail with reference to the drawings.

이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.The suffixes “module” and “part” for components used in the following description are given or used interchangeably only for the ease of preparing the specification, and do not have distinct meanings or roles in themselves.

도 1은 본 발명의 일 실시예에 의한 공항 로봇의 하드웨어 구성을 도시한 블록도이다.Figure 1 is a block diagram showing the hardware configuration of an airport robot according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명의 일 실시예에 의한 공항 로봇(100)의 하드웨어는 마이컴(Micom) 그룹과 및 AP 그룹으로 구성될 수 있다. 마이컴(110) 그룹은 마이컴(110), 전원부(120), 장애물 인식부(130) 및 주행구동부(140)을 포함할 수 있다. AP 그룹은 AP(150), 유저 인터페이스부(160), 사물 인식부(170), 위치 인식부(180) 및 LAN(190)을 포함할 수 있다. 상기 유저 인터페이스부(160)는 통신부로 명명될 수 있다.As shown in FIG. 1, the hardware of the airport robot 100 according to an embodiment of the present invention may be composed of a Micom group and an AP group. The microcomputer 110 group may include a microcomputer 110, a power supply unit 120, an obstacle recognition unit 130, and a travel drive unit 140. The AP group may include an AP (150), a user interface unit (160), an object recognition unit (170), a location recognition unit (180), and a LAN (190). The user interface unit 160 may be called a communication unit.

마이컴(110)은 공항 로봇의 하드웨어 중 배터리 등을 포함하는 전원부(120), 각종 센서들을 포함하는 장애물 인식부(130) 및 복수 개의 모터 및 휠들을 포함하는 주행구동부(140)를 관리할 수 있다. Among the hardware of the airport robot, the microcomputer 110 can manage the power supply unit 120 including a battery, the obstacle recognition unit 130 including various sensors, and the travel driving unit 140 including a plurality of motors and wheels. .

전원부(120)는 배터리 드라이버(battery Driver, 121) 및 리튬-이온 배터리(Li-Ion Battery, 122)를 포함할 수 있다. 배터리 드라이버(121)는 리튬-이온 배터리(122)의 충전과 방전을 관리할 수 있다. 리튬-이온 배터리(122)는 공항 로봇의 구동을 위한 전원을 공급할 수 있다. 리튬-이온 배터리(122)는 24V/102A 리튬-이온 배터리 2개를 병렬로 연결하여 구성될 수 있다.The power supply unit 120 may include a battery driver 121 and a lithium-ion battery 122. The battery driver 121 can manage charging and discharging of the lithium-ion battery 122. The lithium-ion battery 122 can supply power to drive the airport robot. The lithium-ion battery 122 can be configured by connecting two 24V/102A lithium-ion batteries in parallel.

장애물 인식부(130)는 IR 리모콘 수신부(131), USS(132), Cliff PSD(133), ARS(134), Bumper(135) 및 OFS(136)를 포함할 수 있다. IR 리모콘 수신부(131)는 공항 로봇을 원격 조정하기 위한 IR(Infrared) 리모콘의 신호를 수신하는 센서를 포함할 수 있다. USS(Ultrasonic sensor, 132)는 초음파 신호를 이용하여 장애물과 공항 로봇 사이의 거리를 판단하기 위한 센서를 포함할 수 있다. Cliff PSD(133)는 360도 전방향의 공항 로봇 주행 범위에서 낭떠러지 또는 절벽 등을 감지하기 위한 센서를 포함할 수 있다. ARS(Attitude Reference System, 134)는 공항 로봇의 자세를 검출할 수 있는 센서를 포함할 수 있다. ARS(134)는 공항 로봇의 회전량 검출을 위한 가속도 3축 및 자이로 3축으로 구성되는 센서를 포함할 수 있다. Bumper(135)는 공항 로봇과 장애물 사이의 충돌을 감지하는 센서를 포함할 수 있다. Bumper(135)에 포함되는 센서는 360도 범위에서 공항 로봇과 장애물 사이의 충돌을 감지할 수 있다. OFS(Optical Flow Sensor, 136)는 공항 로봇의 주행 시 헛바퀴가 도는 현상 및 다양한 바닥 면에서 공항 로봇의 주행거리를 측정할 수 있는 센서를 포함할 수 있다.The obstacle recognition unit 130 may include an IR remote control receiver 131, USS 132, Cliff PSD 133, ARS 134, Bumper 135, and OFS 136. The IR remote control receiver 131 may include a sensor that receives a signal from an IR (Infrared) remote control for remotely controlling the airport robot. USS (Ultrasonic sensor, 132) may include a sensor for determining the distance between an obstacle and an airport robot using ultrasonic signals. Cliff PSD 133 may include a sensor to detect cliffs or cliffs in the 360-degree omnidirectional airport robot driving range. ARS (Attitude Reference System, 134) may include a sensor that can detect the attitude of the airport robot. The ARS 134 may include a sensor consisting of three acceleration axes and three gyro axes for detecting the rotation amount of the airport robot. Bumper 135 may include sensors that detect collisions between the airport robot and obstacles. The sensor included in Bumper (135) can detect collisions between airport robots and obstacles in a 360-degree range. OFS (Optical Flow Sensor, 136) may include a sensor that can measure the spinning phenomenon of the airport robot while driving and the driving distance of the airport robot on various floor surfaces.

주행구동부(140)는 모터 드라이버(Motor Drivers, 141), 휠 모터(142), 회전 모터(143), 메인 브러시 모터(144), 사이드 브러시 모터(145) 및 석션 모터 (Suction Motor, 146)를 포함할 수 있다. 모터 드라이버(141)는 공항 로봇의 주행 및 청소를 위한 휠 모터, 브러시 모터 및 석션 모터를 구동하는 역할을 수행할 수 있다. 휠 모터(142)는 공항 로봇의 주행을 위한 복수 개의 바퀴를 구동시킬 수 있다. 회전 모터(143)는 공항 로봇의 메인 바디 또는 공항 로봇의 헤드부의 좌우 회전, 상하 회전을 위해 구동되거나 공항 로봇의 바퀴의 방향 전환 또는 회전을 위하여 구동될 수 있다. 메인 브러시 모터(144)는 공항 바닥의 오물을 쓸어 올리는 브러시를 구동시킬 수 있다. 사이드 브러시 모터(145)는 공항 로봇의 바깥면 주변 영역의 오물을 쓸어 담는 브러시를 구동시킬 수 있다. 석션 모터(146)는 공항 바닥의 오물을 흡입하기 위해 구동될 수 있다.The traveling drive unit 140 includes motor drivers (141), wheel motors (142), rotation motors (143), main brush motors (144), side brush motors (145), and suction motors (Suction Motors, 146). It can be included. The motor driver 141 may serve to drive wheel motors, brush motors, and suction motors for driving and cleaning the airport robot. The wheel motor 142 can drive a plurality of wheels for driving the airport robot. The rotation motor 143 may be driven to rotate the main body of the airport robot or the head of the airport robot left and right, up and down, or to change the direction or rotate the wheels of the airport robot. The main brush motor 144 can drive a brush that sweeps up dirt from the airport floor. The side brush motor 145 can drive a brush that sweeps away dirt from the area around the outer surface of the airport robot. The suction motor 146 may be driven to suction dirt from the airport floor.

AP(Application Processor, 150)는 공항 로봇의 하드웨어 모듈 전체 시스템을 관리하는 중앙 처리 장치로서 기능할 수 있다. AP(150)는 각종 센서들을 통해 들어온 위치 정보를 이용하여 주행을 위한 응용프로그램 구동과 사용자 입출력 정보를 마이컴(110) 측으로 전송하여 모터 등의 구동을 수행하게 할 수 있다.AP (Application Processor, 150) can function as a central processing unit that manages the entire hardware module system of the airport robot. The AP 150 can use location information received through various sensors to drive an application program for driving and transmit user input/output information to the microcomputer 110 to drive a motor, etc.

유저 인터페이스부(160)는 유저 인터페이스 프로세서(UI Processor, 161), LTE 라우터(LTE Router, 162), WIFI SSID(163), 마이크 보드(164), 바코드 리더기(165), 터치 모니터(166) 및 스피커(167)를 포함할 수 있다. 유저 인터페이스 프로세서(161)는 사용자의 입출력을 담당하는 유저 인터페이스부의 동작을 제어할 수 있다. LTE 라우터(162)는 외부로부터 필요한 정보를 수신하고 사용자에게 정보를 송신하기 위한 LTE 통신을 수행할 수 있다. WIFI SSID(163)는 WiFi의 신호 강도를 분석하여 특정 사물 또는 공항 로봇의 위치 인식을 수행할 수 있다. 마이크 보드(164)는 복수 개의 마이크 신호를 입력 받아 음성 신호를 디지털 신호인 음성 데이터로 처리하고, 음성 신호의 방향 및 해당 음성 신호를 분석할 수 있다. 바코드 리더기(165)는 공항에서 사용되는 복수 개의 티켓에 기재된 바코드 정보를 리드할 수 있다. 터치 모니터(166)는 사용자의 입력을 수신하기 위해 구성된 터치 패널 및 출력 정보를 표시하기 위한 모니터를 포함할 수 있다. 스피커(167)는 사용자에게 특정 정보를 음성으로 알려주는 역할을 수행할 수 있다.The user interface unit 160 includes a user interface processor (UI Processor) 161, an LTE router (162), a WIFI SSID (163), a microphone board (164), a barcode reader (165), a touch monitor (166), and It may include a speaker 167. The user interface processor 161 can control the operation of the user interface unit responsible for user input and output. The LTE router 162 can receive necessary information from the outside and perform LTE communication to transmit information to the user. The WIFI SSID 163 can perform location recognition of a specific object or airport robot by analyzing the signal strength of WiFi. The microphone board 164 can receive a plurality of microphone signals, process the voice signal into voice data, which is a digital signal, and analyze the direction of the voice signal and the corresponding voice signal. The barcode reader 165 can read barcode information written on a plurality of tickets used at the airport. The touch monitor 166 may include a touch panel configured to receive user input and a monitor to display output information. The speaker 167 may perform the role of informing the user of specific information by voice.

사물인식부(170)는 2D 카메라(171), RGBD 카메라(172) 및 인식 데이터 처리 모듈(173)를 포함할 수 있다. 2D 카메라(171)는 2차원 영상을 기반으로 사람 또는 사물을 인식하기 위한 센서일 수 있다. RGBD 카메라(Red, Green, Blue, Distance, 172)로서, RGBD 센서들을 갖는 카메라 또는 다른 유사한 3D 이미징 디바이스들로부터 획득되는 깊이(Depth) 데이터를 갖는 캡처된 이미지들을 이용하여 사람 또는 사물을 검출하기 위한 센서일 수 있다. 인식 데이터 처리 모듈(173)은 2D 카메라(171) 및 RGBD 카메라(172)로부터 획득된 2D 이미지/영상 또는 3D 이미지/영상 등의 신호를 처리하여 사람 또는 사물을 인식할 수 있다.The object recognition unit 170 may include a 2D camera 171, an RGBD camera 172, and a recognition data processing module 173. The 2D camera 171 may be a sensor for recognizing people or objects based on two-dimensional images. RGBD camera (Red, Green, Blue, Distance, 172) for detecting people or objects using captured images with depth data obtained from cameras with RGBD sensors or other similar 3D imaging devices. It could be a sensor. The recognition data processing module 173 can recognize people or objects by processing signals such as 2D images/videos or 3D images/videos obtained from the 2D camera 171 and the RGBD camera 172.

위치인식부(180)는 스테레오 보드(Stereo B/D, 181), 라이더(Lidar, 182) 및 SLAM 카메라(183)를 포함할 수 있다. SLAM 카메라(Simultaneous Localization And Mapping 카메라, 183)는 동시간 위치 추적 및 지도 작성 기술을 구현할 수 있다. 공항 로봇은 SLAM 카메라(183)를 이용하여 주변 환경 정보를 검출하고 얻어진 정보를 가공하여 임무 수행 공간에 대응되는 지도를 작성함과 동시에 자신의 절대 위치를 추정할 수 있다. 라이더(Light Detection and Ranging : Lidar, 182)는 레이저 레이더로서, 레이저 빔을 조사하고 에어로졸에 의해 흡수 혹은 산란된 빛 중 후방산란된 빛을 수집, 분석하여 위치 인식을 수행하는 센서일 수 있다. 스테레오 보드(181)는 라이더(182) 및 SLAM 카메라(183) 등으로부터 수집되는 센싱 데이터를 처리 및 가공하여 공항 로봇의 위치 인식과 장애물 인식을 위한 데이터 관리를 담당할 수 있다.The location recognition unit 180 may include a stereo board (Stereo B/D) 181, Lidar (182), and a SLAM camera (183). SLAM cameras (Simultaneous Localization And Mapping cameras, 183) can implement simultaneous location tracking and mapping technology. The airport robot can detect information about the surrounding environment using the SLAM camera 183, process the obtained information, create a map corresponding to the mission performance space, and estimate its absolute position at the same time. Lidar (Light Detection and Ranging: Lidar, 182) is a laser radar and may be a sensor that performs location recognition by irradiating a laser beam and collecting and analyzing backscattered light among the light absorbed or scattered by aerosol. The stereo board 181 can process and process sensing data collected from the lidar 182 and the SLAM camera 183 and manage data for location recognition and obstacle recognition of the airport robot.

랜(LAN, 190)은 사용자 입출력 관련 유저 인터페이스 프로세서(161), 인식 데이터 처리 모듈(173), 스테레오 보드(181) 및 AP(150)와 통신을 수행할 수 있다. The LAN 190 may communicate with the user interface processor 161, the recognition data processing module 173, the stereo board 181, and the AP 150 related to user input and output.

도 2는 본 발명의 다른 일 실시예에 의한 공항 로봇의 마이컴 및 AP의 구성을 자세하게 도시한 도면이다.Figure 2 is a diagram illustrating in detail the configuration of a microcomputer and AP of an airport robot according to another embodiment of the present invention.

도 2에 도시된 바와 같이, 공항 로봇의 인식 및 행동을 제어하기 위해서 마이컴(210)과 AP(220)는 다양한 실시예로 구현될 수 있다. As shown in FIG. 2, the microcomputer 210 and AP 220 can be implemented in various embodiments to control the recognition and behavior of the airport robot.

일 예로서, 마이컴(210)은 데이터 액세스 서비스 모듈(Data Access Service Module, 215)를 포함할 수 있다. 데이터 액세스 서비스 모듈(215)은 데이터 획득 모듈(Data acquisition module, 211), 이머전시 모듈(Emergency module, 212), 모터 드라이버 모듈(Motor driver module, 213) 및 배터리 매니저 모듈(Battery manager module, 214)을 포함할 수 있다. 데이터 획득 모듈(211)은 공항 로봇에 포함된 복수 개의 센서로부터 센싱된 데이터를 취득하여 데이터 액세스 서비스 모듈(215)로 전달할 수 있다. 이머전시 모듈(212)은 공항 로봇의 이상 상태를 감지할 수 있는 모듈로서, 공항 로봇이 기 정해진 타입의 행동을 수행하는 경우에 이머전시 모듈(212)은 공항 로봇이 이상 상태에 진입했음을 감지할 수 있다. 모터 드라이버 모듈(213)은 공항 로봇의 주행 및 청소를 위한 휠, 브러시, 석션 모터의 구동 제어를 관리할 수 있다. 배터리 매니저 모듈(214)은 도 1의 리튬-이온 배터리(122)의 충전과 방전을 담당하고, 공항 로봇의 배터리 상태를 데이터 액세스 서비스 모듈(215)에 전달할 수 있다.As an example, the microcomputer 210 may include a data access service module (Data Access Service Module, 215). The data access service module 215 includes a data acquisition module (211), an emergency module (212), a motor driver module (213), and a battery manager module (214). may include. The data acquisition module 211 may acquire sensed data from a plurality of sensors included in the airport robot and transmit it to the data access service module 215. The emergency module 212 is a module that can detect an abnormal state of the airport robot. When the airport robot performs a predetermined type of action, the emergency module 212 detects that the airport robot has entered an abnormal state. You can. The motor driver module 213 can manage the driving control of the wheels, brushes, and suction motors for driving and cleaning the airport robot. The battery manager module 214 is responsible for charging and discharging the lithium-ion battery 122 of FIG. 1 and can transmit the battery status of the airport robot to the data access service module 215.

AP(220)는 각종 카메라 및 센서들과 사용자 입력 등을 수신하고, 인식 가공하여 공항 로봇의 동작을 제어하는 역할을 수행할 수 있다. 인터랙션 모듈(221)은 인식 데이터 처리 모듈(173)로부터 수신하는 인식 데이터와 유저 인터페이스 모듈(222)로부터 수신하는 사용자 입력을 종합하여, 사용자와 공항 로봇이 상호 교류할 수 있는 소프트웨어(Software)를 총괄하는 모듈일 수 있다. 유저 인터페이스 모듈(222)은 공항 로봇의 현재 상항 및 조작/정보 제공 등을 위한 모니터인 디스플레이부(223)와 키(key), 터치 스크린, 리더기 등과 같은 사용자의 근거리 명령을 수신하거나, 공항 로봇을 원격 조정을 위한 IR 리모콘의 신호와 같은 원거리 신호를 수신하거나, 마이크 또는 바코드 리더기 등으로부터 사용자의 입력 신호를 수신하는 사용자 입력부(224)로부터 수신되는 사용자 입력을 관리할 수 있다. 적어도 하나 이상의 사용자 입력이 수신되면, 유저 인터페이스 모듈(222)은 상태 관리 모듈(State Machine module, 225)로 사용자 입력 정보를 전달할 수 있다. 사용자 입력 정보를 수신한 상태 관리 모듈(225)은 공항 로봇의 전체 상태를 관리하고, 사용자 입력 대응하는 적절한 명령을 내릴 수 있다. 플래닝 모듈(226)은 상태 관리 모듈(225)로부터 전달받은 명령에 따라서 공항 로봇의 특정 동작을 위한 시작과 종료 시점/행동을 판단하고, 공항 로봇이 어느 경로로 이동해야 하는지를 계산할 수 있다. 네비게이션 모듈(227)은 공항 로봇의 주행 전반을 담당하는 것으로서, 플래닝 모듈(226)에서 계산된 주행 루트에 따라서 공항 로봇이 주행하게 할 수 있다. 모션 모듈(228)은 주행 이외에 기본적인 공항 로봇의 동작을 수행하도록 할 수 있다.The AP 220 can receive various cameras, sensors, user input, etc., recognize and process them, and control the operation of the airport robot. The interaction module 221 integrates the recognition data received from the recognition data processing module 173 and the user input received from the user interface module 222, and manages software that allows users and airport robots to interact with each other. It may be a module that does this. The user interface module 222 receives the user's short-range commands such as the display unit 223, which is a monitor for the current status and operation/information provision of the airport robot, and keys, touch screens, readers, etc., or operates the airport robot. It is possible to manage user input received from the user input unit 224, which receives a long-distance signal such as a signal from an IR remote control for remote control, or receives a user input signal from a microphone or barcode reader. When at least one user input is received, the user interface module 222 may transmit the user input information to the state management module (State Machine module, 225). The state management module 225 that receives user input information can manage the overall state of the airport robot and issue appropriate commands in response to user input. The planning module 226 can determine the start and end time/actions for a specific operation of the airport robot according to the command received from the state management module 225, and calculate which path the airport robot should move. The navigation module 227 is responsible for the overall driving of the airport robot and can cause the airport robot to drive according to the driving route calculated in the planning module 226. The motion module 228 can perform basic airport robot operations in addition to driving.

또한, 본 발명의 다른 일 실시예에 의한 공항 로봇은 위치 인식부(230)를 포함할 수 있다. 위치 인식부(230)는 상대 위치 인식부(231)와 절대 위치 인식부(234)를 포함할 수 있다. 상대 위치 인식부(231)는 RGM mono(232) 센서를 통해 공항 로봇의 이동량을 보정하고, 일정한 시간 동안 공항 로봇의 이동량을 계산할 수 있고, LiDAR(233)를 통해 현재 공항 로봇의 주변 환경을 인식할 수 있다. 절대 위치 인식부(234)는 Wifi SSID(235) 및 UWB(236)을 포함할 수 있다. Wifi SSID(235)는 공항 로봇의 절대 위치 인식을 위한 UWB 센서 모듈로서, Wifi SSID 감지를 통해 현재 위치를 추정하기 위한 WIFI 모듈이다. Wifi SSID(235)는 Wifi의 신호 강도를 분석하여 공항 로봇의 위치를 인식할 수 있다. UWB(236)는 발신부와 수신부 사이의 거리를 계산하여 공항 로봇의 절대적 위치를 센싱할 수 있다.Additionally, the airport robot according to another embodiment of the present invention may include a location recognition unit 230. The location recognition unit 230 may include a relative location recognition unit 231 and an absolute location recognition unit 234. The relative position recognition unit 231 can correct the movement amount of the airport robot through the RGM mono (232) sensor, calculate the movement amount of the airport robot for a certain period of time, and recognize the current surrounding environment of the airport robot through LiDAR (233). can do. The absolute location recognition unit 234 may include a Wifi SSID 235 and UWB 236. Wifi SSID (235) is a UWB sensor module for absolute location recognition of airport robots, and is a WIFI module for estimating the current location through Wifi SSID detection. The Wifi SSID (235) can recognize the location of the airport robot by analyzing the Wifi signal strength. The UWB 236 can sense the absolute position of the airport robot by calculating the distance between the transmitter and the receiver.

또한, 본 발명의 다른 일 실시예에 의한 공항 로봇은 맵 관리 모듈(240)을 포함할 수 있다. 맵 관리 모듈(240)은 그리드 모듈(Grid module, 241), 패스 플래닝 모듈(Path Planning module, 242) 및 맵 분할 모듈(243)을 포함할 수 있다. 그리드 모듈(241)은 공항 로봇이 SLAM 카메라를 통해 생성한 격자 형태의 지도 혹은 사전에 미리 공항 로봇에 입력된 위치 인식을 위한 주변환경의 지도 데이터를 관리할 수 있다. 패스 플래닝 모듈(242)은 복수 개의 공항 로봇들 사이의 협업을 위한 맵 구분에서, 공항 로봇들의 주행 경로 계산을 담당할 수 있다. 또한, 패스 플래닝 모듈(242)은 공항 로봇 한대가 동작하는 환경에서 공항 로봇이 이동해야 할 주행 경로도 계산할 수 있다. 맵 분할 모듈(243)은 복수 개의 공항 로봇들이 각자 담당해야할 구역을 실시간으로 계산할 수 있다. Additionally, the airport robot according to another embodiment of the present invention may include a map management module 240. The map management module 240 may include a grid module 241, a path planning module 242, and a map division module 243. The grid module 241 can manage a grid-shaped map generated by the airport robot through a SLAM camera or map data of the surrounding environment for location recognition input to the airport robot in advance. The path planning module 242 may be responsible for calculating the driving path of the airport robots in dividing the map for collaboration between a plurality of airport robots. Additionally, the path planning module 242 can also calculate the driving path that the airport robot must travel in an environment in which one airport robot operates. The map division module 243 can calculate in real time the areas each of the plurality of airport robots will be responsible for.

위치 인식부(230) 및 맵 관리 모듈(240)로부터 센싱되고 계산된 데이터들은 다시 상태 관리 모듈(225)로 전달될 수 있다. 상태 관리 모듈(225)은 위치 인식부(230) 및 맵 관리 모듈(240)로부터 센싱되고 계산된 데이터들에 기초하여, 공항 로봇의 동작을 제어하도록 플래닝 모듈(226)에 명령을 내릴 수 있다.Data sensed and calculated from the location recognition unit 230 and the map management module 240 may be transmitted back to the state management module 225. The state management module 225 may issue a command to the planning module 226 to control the operation of the airport robot based on data sensed and calculated from the location recognition unit 230 and the map management module 240.

다음으로 도 3은 본 발명의 실시 예에 따른 공항 로봇 시스템의 구조를 설명하기 위한 도면이다.Next, Figure 3 is a diagram for explaining the structure of an airport robot system according to an embodiment of the present invention.

본 발명의 일 실시 예에 따른 공항 로봇 시스템은 이동 단말기(310), 서버(320), 공항 로봇(300) 및 카메라(330)를 포함할 수 있다.The airport robot system according to an embodiment of the present invention may include a mobile terminal 310, a server 320, an airport robot 300, and a camera 330.

이동 단말기(310)는 공항 내 서버(320)와 데이터를 송수신할 수 있다. 예를 들어, 이동 단말기(310)는 서버(320)로부터 비행 시간 스케쥴, 공항 지도 등과 같은 공항 관련 데이터를 수신할 수 있다. 사용자는 이동 단말기(310)를 통해 공항에서 필요한 정보를 서버(320)로부터 수신하여 얻을 수 있다. 또한, 이동 단말기(310)는 서버(320)로 사진이나 동영상, 메시지 등과 같은 데이터를 전송할 수 있다. 예를 들어, 사용자는 미아 사진을 서버(320)로 전송하여 미아 접수를 하거나, 공항 내 청소가 필요한 구역의 사진을 카메라로 촬영하여 서버(320)로 전송함으로써 해당 구역의 청소를 요청할 수 있다.The mobile terminal 310 can transmit and receive data with the server 320 within the airport. For example, the mobile terminal 310 may receive airport-related data such as flight time schedule, airport map, etc. from the server 320. The user can obtain necessary information by receiving it from the server 320 at the airport through the mobile terminal 310. Additionally, the mobile terminal 310 can transmit data such as photos, videos, and messages to the server 320. For example, a user can send a photo of a lost child to the server 320 to register a lost child, or take a photo of an area that needs cleaning in the airport with a camera and send it to the server 320 to request cleaning of the area.

또한, 이동 단말기(310)는 공항 로봇(300)과 데이터를 송수신할 수 있다. Additionally, the mobile terminal 310 can transmit and receive data with the airport robot 300.

예를 들어, 이동 단말기(310)는 공항 로봇(300)을 호출하는 신호나 특정 동작을 수행하도록 명령하는 신호 또는 정보 요청 신호 등을 공항 로봇(300)으로 전송할 수 있다. 공항 로봇(300)은 이동 단말기(310)로부터 수신된 호출 신호에 응답하여 이동 단말기(310)의 위치로 이동하거나 명령 신호에 대응하는 동작을 수행할 수 있다. 또는 공항 로봇(300)은 정보 요청 신호에 대응하는 데이터를 각 사용자의 이동 단말기(310)로 전송할 수 있다.For example, the mobile terminal 310 may transmit a signal calling the airport robot 300, a signal commanding the airport robot 300 to perform a specific operation, or an information request signal to the airport robot 300. The airport robot 300 may move to the location of the mobile terminal 310 in response to a call signal received from the mobile terminal 310 or perform an operation corresponding to a command signal. Alternatively, the airport robot 300 may transmit data corresponding to the information request signal to each user's mobile terminal 310.

다음으로, 공항 로봇(300)은 공항 내에서 순찰, 안내, 청소, 방역, 운반 등의 역할을 할 수 있다.Next, the airport robot 300 can perform roles such as patrolling, guiding, cleaning, quarantine, and transport within the airport.

공항 로봇(300)은 이동 단말기(310) 또는 서버(320)와 신호를 송수신할 수 있다. 예를 들어, 공항 로봇(300)은 서버(320)와 공항 내 상황 정보 등을 포함한 신호를 송수신할 수 있다. 또한, 공항 로봇(300)은 공항 내 카메라(330)로부터 공항의 각 구역들을 촬영한 영상 정보를 수신할 수 있다. 따라서 공항 로봇(300)은 공항 로봇(300)이 촬영한 영상 정보 및 카메라(330)로부터 수신한 영상 정보를 종합하여 공항의 상황을 모니터링할 수 있다.The airport robot 300 can transmit and receive signals with the mobile terminal 310 or the server 320. For example, the airport robot 300 can transmit and receive signals including situation information within the airport with the server 320. Additionally, the airport robot 300 can receive image information captured from each area of the airport from the camera 330 within the airport. Therefore, the airport robot 300 can monitor the airport situation by combining the image information captured by the airport robot 300 and the image information received from the camera 330.

공항 로봇(300)은 사용자로부터 직접 명령을 수신할 수 있다. 예를 들어, 공항 로봇(300)에 구비된 디스플레이부를 터치하는 입력 또는 음성 입력 등을 통해 사용자로부터 명령을 직접 수신할 수 있다. 공항 로봇(300)은 사용자, 이동 단말기(310) 또는 서버(320) 등으로부터 수신된 명령에 따라 순찰, 안내, 청소 등의 동작을 수행할 수 있다.The airport robot 300 can receive commands directly from the user. For example, a command can be received directly from the user through a touch input or voice input on the display unit provided in the airport robot 300. The airport robot 300 may perform operations such as patrolling, guiding, and cleaning according to commands received from a user, mobile terminal 310, or server 320.

다음으로 서버(320)는 이동 단말기(310), 공항 로봇(300), 카메라(330)로부터 정보를 수신할 수 있다. 서버(320)는 각 장치들로부터 수신된 정보들을 통합하여 저장 및 관리할 수 있다. 서버(320)는 저장된 정보들을 이동 단말기(310) 또는 공항 로봇(300)에 전송할 수 있다. 또한, 서버(320)는 공항에 배치된 복수의 공항 로봇(300)들 각각에 대한 명령 신호를 전송할 수 있다.Next, the server 320 may receive information from the mobile terminal 310, the airport robot 300, and the camera 330. The server 320 can integrate, store, and manage information received from each device. The server 320 may transmit the stored information to the mobile terminal 310 or the airport robot 300. Additionally, the server 320 may transmit a command signal for each of the plurality of airport robots 300 deployed at the airport.

카메라(330)는 공항 내에 설치된 카메라를 포함할 수 있다. 예를 들어, 카메라(330)는 공항 내에 설치된 복수 개의 CCTV(closed circuit television) 카메라, 적외선 열감지 카메라 등을 모두 포함할 수 있다. 카메라(330)는 촬영된 영상을 서버(320) 또는 공항 로봇(300)에 전송할 수 있다.The camera 330 may include a camera installed within the airport. For example, the camera 330 may include a plurality of closed circuit television (CCTV) cameras, infrared heat detection cameras, etc. installed within the airport. The camera 330 may transmit the captured image to the server 320 or the airport robot 300.

도 4는 본 발명과 관련된 이동 단말기를 설명하기 위한 블록도 이다.Figure 4 is a block diagram for explaining a mobile terminal related to the present invention.

상기 이동 단말기(310)는 무선 통신부(410), 입력부(420), 센싱부(440), 출력부(450), 인터페이스부(460), 메모리(470), 제어부(480) 및 전원 공급부(490) 등을 포함할 수 있다. 도 4에 도시된 구성요소들은 이동 단말기를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 이동 단말기는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다. The mobile terminal 310 includes a wireless communication unit 410, an input unit 420, a sensing unit 440, an output unit 450, an interface unit 460, a memory 470, a control unit 480, and a power supply unit 490. ), etc. may be included. The components shown in FIG. 4 are not essential for implementing the mobile terminal, so the mobile terminal described herein may have more or fewer components than the components listed above.

보다 구체적으로, 상기 구성요소들 중 무선 통신부(410)는, 이동 단말기(310)와 무선 통신 시스템 사이, 이동 단말기(310)와 다른 이동 단말기(310) 사이, 또는 이동 단말기(310)와 외부서버 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 상기 무선 통신부(410)는, 이동 단말기(310)를 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다.More specifically, among the above components, the wireless communication unit 410 is used between the mobile terminal 310 and the wireless communication system, between the mobile terminal 310 and another mobile terminal 310, or between the mobile terminal 310 and an external server. It may include one or more modules that enable wireless communication between the devices. Additionally, the wireless communication unit 410 may include one or more modules that connect the mobile terminal 310 to one or more networks.

이러한 무선 통신부(410)는, 방송 수신 모듈(411), 이동통신 모듈(412), 무선 인터넷 모듈(413), 근거리 통신 모듈(414), 위치정보 모듈(415) 중 적어도 하나를 포함할 수 있다.This wireless communication unit 410 may include at least one of a broadcast reception module 411, a mobile communication module 412, a wireless Internet module 413, a short-range communication module 414, and a location information module 415. .

입력부(420)는, 영상 신호 입력을 위한 카메라(421) 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰(microphone, 422), 또는 오디오 입력부, 사용자로부터 정보를 입력 받기 위한 사용자 입력부(423, 예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함할 수 있다. 입력부(420)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어명령으로 처리될 수 있다.The input unit 420 includes a camera 421 or video input unit for inputting video signals, a microphone 422 or an audio input unit for inputting audio signals, and a user input unit 423 for receiving information from the user, for example. , touch keys, push keys (mechanical keys, etc.). Voice data or image data collected by the input unit 420 may be analyzed and processed as a user's control command.

센싱부(440)는 이동 단말기 내 정보, 이동 단말기를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱 하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 센싱부(440)는 근접센서(441, proximity sensor), 조도 센서(442, illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라(421 참조)), 마이크로폰(microphone, 422 참조), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 이동 단말기는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱 되는 정보들을 조합하여 활용할 수 있다.The sensing unit 440 may include one or more sensors for sensing at least one of information within the mobile terminal, information on the surrounding environment surrounding the mobile terminal, and user information. For example, the sensing unit 440 includes a proximity sensor (441), an illumination sensor (442), a touch sensor, an acceleration sensor, a magnetic sensor, and a gravity sensor. Sensor (G-sensor), gyroscope sensor, motion sensor, RGB sensor, IR sensor (infrared sensor), fingerprint scan sensor, ultrasonic sensor , optical sensors (e.g., cameras (see 421)), microphones (see 422), battery gauges, environmental sensors (e.g., barometers, hygrometers, thermometers, radiation detection sensors, It may include at least one of a heat detection sensor, a gas detection sensor, etc.) and a chemical sensor (e.g., an electronic nose, a healthcare sensor, a biometric sensor, etc.). Meanwhile, the mobile terminal disclosed in this specification can utilize information sensed by at least two of these sensors by combining them.

출력부(450)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(451), 음향 출력부(452), 햅팁 모듈(453), 광 출력부(454) 중 적어도 하나를 포함할 수 있다. 디스플레이부(451)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 이동 단말기(310)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(423)로써 기능함과 동시에, 이동 단말기(310)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.The output unit 450 is for generating output related to vision, hearing, or tactile sense, and includes at least one of a display unit 451, an audio output unit 452, a haptip module 453, and an optical output unit 454. can do. The display unit 451 can implement a touch screen by forming a layered structure or being integrated with the touch sensor. This touch screen functions as a user input unit 423 that provides an input interface between the mobile terminal 310 and the user, and can simultaneously provide an output interface between the mobile terminal 310 and the user.

인터페이스부(460)는 이동 단말기(310)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행한다. 이러한 인터페이스부(460)는, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 중 적어도 하나를 포함할 수 있다. 이동 단말기(310)에서는, 상기 인터페이스부(460)에 외부 기기가 연결되는 것에 대응하여, 연결된 외부 기기와 관련된 적절할 제어를 수행할 수 있다.The interface unit 460 serves as a passageway for various types of external devices connected to the mobile terminal 310. This interface unit 460 connects devices equipped with a wired/wireless headset port, an external charger port, a wired/wireless data port, a memory card port, and an identification module. It may include at least one of a port, an audio input/output (I/O) port, a video input/output (I/O) port, and an earphone port. In response to the external device being connected to the interface unit 460, the mobile terminal 310 may perform appropriate control related to the connected external device.

또한, 메모리(470)는 이동 단말기(310)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(470)는 이동 단말기(310)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 이동 단말기(310)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는, 이동 단말기(310)의 기본적인 기능(예를 들어, 전화 착신, 발신 기능, 메시지 수신, 발신 기능)을 위하여 출고 당시부터 이동 단말기(310)상에 존재할 수 있다. 한편, 응용 프로그램은, 메모리(470)에 저장되고, 이동 단말기(310) 상에 설치되어, 제어부(480)에 의하여 상기 이동 단말기의 동작(또는 기능)을 수행하도록 구동될 수 있다.Additionally, the memory 470 stores data supporting various functions of the mobile terminal 310. The memory 470 may store a number of application programs (application programs or applications) running on the mobile terminal 310, data for operating the mobile terminal 310, and commands. At least some of these applications may be downloaded from an external server via wireless communication. Additionally, at least some of these applications may be present on the mobile terminal 310 from the time of shipment for the basic functions of the mobile terminal 310 (e.g., incoming and outgoing calls, receiving and sending functions). Meanwhile, the application program may be stored in the memory 470, installed on the mobile terminal 310, and driven by the control unit 480 to perform the operation (or function) of the mobile terminal.

제어부(480)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 이동 단말기(310)의 전반적인 동작을 제어한다. 제어부(480)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(470)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.In addition to operations related to the application program, the control unit 480 typically controls the overall operation of the mobile terminal 310. The control unit 480 can provide or process appropriate information or functions to the user by processing signals, data, information, etc. input or output through the components discussed above, or by running an application program stored in the memory 470.

또한, 제어부(480)는 메모리(470)에 저장된 응용 프로그램을 구동하기 위하여, 도 4와 함께 살펴본 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 제어부(480)는 상기 응용 프로그램의 구동을 위하여, 이동 단말기(310)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.Additionally, the control unit 480 may control at least some of the components examined with FIG. 4 in order to run an application program stored in the memory 470. Furthermore, the control unit 480 may operate at least two of the components included in the mobile terminal 310 in combination with each other in order to run the application program.

전원공급부(490)는 제어부(480)의 제어 하에서, 외부의 전원, 내부의 전원을 인가 받아 이동 단말기(310)에 포함된 각 구성요소들에 전원을 공급한다. 이러한 전원공급부(490)는 배터리를 포함하며, 상기 배터리는 내장형 배터리 또는 교체 가능한 형태의 배터리가 될 수 있다.The power supply unit 490 receives external power and internal power under the control of the control unit 480 and supplies power to each component included in the mobile terminal 310. This power supply unit 490 includes a battery, and the battery may be a built-in battery or a replaceable battery.

상기 각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시 예들에 따른 이동 단말기의 동작, 제어, 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 상기 이동 단말기의 동작, 제어, 또는 제어방법은 상기 메모리(470)에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 이동 단말기 상에서 구현될 수 있다. At least some of the above components may operate in cooperation with each other to implement operation, control, or a control method of a mobile terminal according to various embodiments described below. Additionally, the operation, control, or control method of the mobile terminal may be implemented on the mobile terminal by running at least one application program stored in the memory 470.

이하에서는, 위에서 살펴본 이동 단말기(310)를 통하여 구현되는 다양한 실시 예들을 살펴보기에 앞서, 위에서 열거된 구성요소들에 대하여 도 4를 참조하여 보다 구체적으로 살펴본다.Below, before looking at various embodiments implemented through the mobile terminal 310 discussed above, the components listed above will be looked at in more detail with reference to FIG. 4.

먼저, 무선 통신부(410)에 대하여 살펴보면, 무선 통신부(410)의 방송 수신 모듈(411)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 적어도 두 개의 방송 채널들에 대한 동시 방송 수신 또는 방송 채널 스위칭을 위해 둘 이상의 상기 방송 수신 모듈이 상기 이동단말기(310)에 제공될 수 있다.First, looking at the wireless communication unit 410, the broadcast reception module 411 of the wireless communication unit 410 receives broadcast signals and/or broadcast-related information from an external broadcast management server through a broadcast channel. The broadcast channels may include satellite channels and terrestrial channels. Two or more broadcast reception modules may be provided in the mobile terminal 310 for simultaneous broadcast reception of at least two broadcast channels or broadcast channel switching.

이동통신 모듈(412)은, 이동통신을 위한 기술표준들 또는 통신방식(예를 들어, GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등)에 따라 구축된 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. The mobile communication module 412 uses technical standards or communication methods for mobile communication (e.g., Global System for Mobile communication (GSM), Code Division Multi Access (CDMA), Code Division Multi Access 2000 (CDMA2000), EV -DO (Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA (Wideband CDMA), HSDPA (High Speed Downlink Packet Access), HSUPA (High Speed Uplink Packet Access), LTE (Long Term Evolution), LTE-A (Long Term Evolution-Advanced, etc.), wireless signals are transmitted and received with at least one of a base station, an external terminal, and a server on a mobile communication network constructed according to (Long Term Evolution-Advanced), etc.).

상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. The wireless signal may include various types of data based on voice call signals, video call signals, or text/multimedia message transmission and reception.

무선 인터넷 모듈(413)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 이동 단말기(310)에 내장되거나 외장될 수 있다. 무선 인터넷 모듈(413)은 무선 인터넷 기술들에 따른 통신망에서 무선 신호를 송수신하도록 이루어진다.The wireless Internet module 413 refers to a module for wireless Internet access and may be built into or external to the mobile terminal 310. The wireless Internet module 413 is configured to transmit and receive wireless signals in a communication network based on wireless Internet technologies.

무선 인터넷 기술로는, 예를 들어 WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등이 있으며, 상기 무선 인터넷 모듈(413)은 상기에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 데이터를 송수신하게 된다.Wireless Internet technologies include, for example, WLAN (Wireless LAN), Wi-Fi (Wireless-Fidelity), Wi-Fi (Wireless Fidelity) Direct, DLNA (Digital Living Network Alliance), WiBro (Wireless Broadband), and WiMAX (Worldwide). Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access), HSUPA (High Speed Uplink Packet Access), LTE (Long Term Evolution), LTE-A (Long Term Evolution-Advanced), etc., and the wireless Internet module ( 413) transmits and receives data according to at least one wireless Internet technology, including Internet technologies not listed above.

WiBro, HSDPA, HSUPA, GSM, CDMA, WCDMA, LTE, LTE-A 등에 의한 무선인터넷 접속은 이동통신망을 통해 이루어진다는 관점에서 본다면, 상기 이동통신망을 통해 무선인터넷 접속을 수행하는 상기 무선 인터넷 모듈(413)은 상기 이동통신 모듈(412)의 일종으로 이해될 수도 있다.From the perspective that wireless Internet access by WiBro, HSDPA, HSUPA, GSM, CDMA, WCDMA, LTE, LTE-A, etc. is achieved through a mobile communication network, the wireless Internet module 413 performs wireless Internet access through the mobile communication network. ) may be understood as a type of the mobile communication module 412.

근거리 통신 모듈(414)은 근거리 통신(Short range communication)을 위한 것으로서, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다. 이러한, 근거리 통신 모듈(114)은, 근거리 무선 통신망(Wireless Area Networks)을 통해 이동 단말기(100)와 무선 통신 시스템 사이, 이동 단말기(310)와 다른 이동 단말기(310) 사이, 또는 이동 단말기(310)와 다른 이동 단말기(310, 또는 외부서버)가 위치한 네트워크 사이의 무선 통신을 지원할 수 있다. 상기 근거리 무선 통신망은 근거리 무선 개인 통신망(Wireless Personal Area Networks)일 수 있다.The short-range communication module 414 is for short-range communication, including Bluetooth™, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and NFC. Short-distance communication can be supported using at least one of (Near Field Communication), Wi-Fi (Wireless-Fidelity), Wi-Fi Direct, and Wireless USB (Wireless Universal Serial Bus) technologies. This short-range communication module 114 is used between the mobile terminal 100 and a wireless communication system, between the mobile terminal 310 and another mobile terminal 310, or between the mobile terminal 310 through wireless area networks. ) can support wireless communication between a network where another mobile terminal (310, or an external server) is located. The short-range wireless communication networks may be wireless personal area networks.

여기에서, 다른 이동 단말기(310)는 본 발명에 따른 이동 단말기(310)와 데이터를 상호 교환하는 것이 가능한(또는 연동 가능한) 웨어러블 디바이스(wearable device, 예를 들어, 스마트워치(smartwatch), 스마트 글래스(smart glass), HMD(head mounted display))가 될 수 있다. 근거리 통신 모듈(414)은, 이동 단말기(310) 주변에, 상기 이동 단말기(310)와 통신 가능한 웨어러블 디바이스를 감지(또는 인식)할 수 있다. 나아가, 제어부(480)는 상기 감지된 웨어러블 디바이스가 본 발명에 따른 이동 단말기(310)와 통신하도록 인증된 디바이스인 경우, 이동 단말기(310)에서 처리되는 데이터의 적어도 일부를, 상기 근거리 통신 모듈(414)을 통해 웨어러블 디바이스로 송신할 수 있다. 따라서, 웨어러블 디바이스의 사용자는, 이동 단말기(310)에서 처리되는 데이터를, 웨어러블 디바이스를 통해 이용할 수 있다. 예를 들어, 이에 따르면 사용자는, 이동 단말기(310)에 전화가 수신된 경우, 웨어러블 디바이스를 통해 전화 통화를 수행하거나, 이동 단말기(310)에 메시지가 수신된 경우, 웨어러블 디바이스를 통해 상기 수신된 메시지를 확인하는 것이 가능하다.Here, the other mobile terminal 310 is a wearable device (e.g., smartwatch, smart glass) capable of exchanging data with (or interoperating with) the mobile terminal 310 according to the present invention. (smart glass), HMD (head mounted display)). The short-range communication module 414 may detect (or recognize) a wearable device capable of communicating with the mobile terminal 310 around the mobile terminal 310 . Furthermore, if the detected wearable device is a device authenticated to communicate with the mobile terminal 310 according to the present invention, the control unit 480 sends at least a portion of the data processed by the mobile terminal 310 to the short-range communication module ( 414) can be transmitted to a wearable device. Accordingly, the user of the wearable device can use data processed in the mobile terminal 310 through the wearable device. For example, according to this, when a call is received on the mobile terminal 310, the user makes a phone call through a wearable device, or when a message is received on the mobile terminal 310, the user makes a phone call through the wearable device. It is possible to check the message.

위치정보 모듈(415)은 이동 단말기의 위치(또는 현재 위치)를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Positioning System) 모듈 또는 WiFi(Wireless Fidelity) 모듈이 있다. 예를 들어, 이동 단말기는 GPS모듈을 활용하면, GPS 위성에서 보내는 신호를 이용하여 이동 단말기의 위치를 획득할 수 있다. 다른 예로서, 이동 단말기는 Wi-Fi모듈을 활용하면, Wi-Fi모듈과 무선신호를 송신 또는 수신하는 무선 AP(Wireless Access Point)의 정보에 기반하여, 이동 단말기의 위치를 획득할 수 있다. 필요에 따라서, 위치정보모듈(415)은 치환 또는 부가적으로 이동 단말기의 위치에 관한 데이터를 얻기 위해 무선 통신부(410)의 다른 모듈 중 어느 기능을 수행할 수 있다. 위치정보모듈(415)은 이동 단말기(310)의 위치(또는 현재 위치)를 획득하기 위해 이용되는 모듈로, 이동 단말기의 위치를 직접적으로 계산하거나 획득하는 모듈로 한정되지는 않는다.The location information module 415 is a module for acquiring the location (or current location) of the mobile terminal, and representative examples thereof include a Global Positioning System (GPS) module or a Wireless Fidelity (WiFi) module. For example, if a mobile terminal uses a GPS module, it can acquire the location of the mobile terminal using signals sent from GPS satellites. As another example, when a mobile terminal utilizes a Wi-Fi module, the location of the mobile terminal can be obtained based on information from the Wi-Fi module and a wireless AP (Wireless Access Point) that transmits or receives wireless signals. If necessary, the location information module 415 may replace or additionally perform any of the functions of other modules of the wireless communication unit 410 to obtain data regarding the location of the mobile terminal. The location information module 415 is a module used to obtain the location (or current location) of the mobile terminal 310, and is not limited to a module that directly calculates or obtains the location of the mobile terminal.

다음으로, 입력부(420)는 영상 정보(또는 신호), 오디오 정보(또는 신호), 데이터, 또는 사용자로부터 입력되는 정보의 입력을 위한 것으로서, 영상 정보의 입력을 위하여, 이동 단말기(310) 는 하나 또는 복수의 카메라(421)를 구비할 수 있다. 카메라(421)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(451)에 표시되거나 메모리(470)에 저장될 수 있다. 한편, 이동 단말기(310)에 구비되는 복수의 카메라(421)는 매트릭스 구조를 이루도록 배치될 수 있으며, 이와 같이 매트릭스 구조를 이루는 카메라(421)를 통하여, 이동 단말기(310)에는 다양한 각도 또는 초점을 갖는 복수의 영상정보가 입력될 수 있다. 또한, 복수의 카메라(421)는 입체영상을 구현하기 위한 좌 영상 및 우 영상을 획득하도록, 스트레오 구조로 배치될 수 있다.Next, the input unit 420 is for inputting video information (or signal), audio information (or signal), data, or information input from the user. For input of video information, the mobile terminal 310 is one Alternatively, a plurality of cameras 421 may be provided. The camera 421 processes image frames, such as still images or moving images, obtained by an image sensor in video call mode or shooting mode. The processed image frame may be displayed on the display unit 451 or stored in the memory 470. Meanwhile, the plurality of cameras 421 provided in the mobile terminal 310 may be arranged to form a matrix structure, and through the cameras 421 forming the matrix structure, the mobile terminal 310 can be viewed at various angles or focuses. A plurality of image information may be input. Additionally, the plurality of cameras 421 may be arranged in a stereo structure to acquire left and right images for implementing a three-dimensional image.

마이크로폰(422)은 외부의 음향 신호를 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 이동 단말기(310)에서 수행 중인 기능(또는 실행 중인 응용 프로그램)에 따라 다양하게 활용될 수 있다. 한편, 마이크로폰(422)에는 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The microphone 422 processes external acoustic signals into electrical voice data. The processed voice data can be utilized in various ways depending on the function (or application program being executed) being performed in the mobile terminal 310. Meanwhile, various noise removal algorithms may be implemented in the microphone 422 to remove noise generated in the process of receiving an external acoustic signal.

사용자 입력부(423)는 사용자로부터 정보를 입력 받기 위한 것으로서, 사용자 입력부(423)를 통해 정보가 입력되면, 제어부(480)는 입력된 정보에 대응되도록 이동 단말기(310)의 동작을 제어할 수 있다. 이러한, 사용자 입력부(423)는 기계식 (mechanical) 입력수단(또는, 메커니컬 키, 예를 들어, 이동 단말기(310)의 전후면 또는 측면에 위치하는 버튼, 돔 스위치 (dome switch), 조그 휠, 조그 스위치 등) 및 터치식 입력수단을 포함할 수 있다. 일 예로서, 터치식 입력수단은, 소프트웨어적인 처리를 통해 터치스크린에 표시되는 가상 키(virtual key), 소프트 키(soft key) 또는 비주얼 키(visual key)로 이루어지거나, 상기 터치스크린 이외의 부분에 배치되는 터치 키(touch key)로 이루어질 수 있다. 한편, 상기 가상키 또는 비주얼 키는, 다양한 형태를 가지면서 터치스크린 상에 표시되는 것이 가능하며, 예를 들어, 그래픽(graphic), 텍스트(text), 아이콘(icon), 비디오(video) 또는 이들의 조합으로 이루어질 수 있다. The user input unit 423 is for receiving information from the user. When information is input through the user input unit 423, the control unit 480 can control the operation of the mobile terminal 310 to correspond to the input information. . This user input unit 423 is a mechanical input means (or mechanical key, for example, a button located on the front, rear, or side of the mobile terminal 310, a dome switch, a jog wheel, a jog switches, etc.) and touch input means. As an example, the touch input means consists of a virtual key, soft key, or visual key displayed on the touch screen through software processing, or a part other than the touch screen. It can be done with a touch key placed in . Meanwhile, the virtual key or visual key can be displayed on the touch screen in various forms, for example, graphic, text, icon, video or these. It can be made up of a combination of .

한편, 센싱부(440)는 이동 단말기 내 정보, 이동 단말기를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱 하고, 이에 대응하는 센싱 신호를 발생시킨다. 제어부(480)는 이러한 센싱 신호에 기초하여, 이동 단말기(310)의 구동 또는 동작을 제어하거나, 이동 단말기(310)에 설치된 응용 프로그램과 관련된 데이터 처리, 기능 또는 동작을 수행 할 수 있다. 센싱부(440)에 포함될 수 있는 다양한 센서 중 대표적인 센서들의 대하여, 보다 구체적으로 살펴본다.Meanwhile, the sensing unit 440 senses at least one of information within the mobile terminal, information about the surrounding environment surrounding the mobile terminal, and user information, and generates a sensing signal corresponding thereto. Based on these sensing signals, the control unit 480 may control the driving or operation of the mobile terminal 310 or perform data processing, functions, or operations related to an application program installed on the mobile terminal 310. Representative sensors among the various sensors that may be included in the sensing unit 440 will be looked at in more detail.

먼저, 근접 센서(441)는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선 등을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 이러한 근접 센서(441)는 위에서 살펴본 터치 스크린에 의해 감싸지는 이동 단말기의 내부 영역 또는 상기 터치 스크린의 근처에 근접 센서(441)가 배치될 수 있다. First, the proximity sensor 441 refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or an object existing nearby without mechanical contact using the power of an electromagnetic field or infrared rays. This proximity sensor 441 may be placed in the inner area of the mobile terminal surrounded by the touch screen as seen above or near the touch screen.

근접 센서(441)의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전 용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 터치 스크린이 정전식인 경우에, 근접 센서(441)는 전도성을 갖는 물체의 근접에 따른 전계의 변화로 상기 물체의 근접을 검출하도록 구성될 수 있다. 이 경우 터치 스크린(또는 터치 센서) 자체가 근접 센서로 분류될 수 있다. Examples of the proximity sensor 441 include a transmissive photoelectric sensor, a direct reflection photoelectric sensor, a mirror reflection photoelectric sensor, a high-frequency oscillation type proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor. When the touch screen is capacitive, the proximity sensor 441 may be configured to detect the proximity of a conductive object by changing the electric field according to the proximity of the object. In this case, the touch screen (or touch sensor) itself can be classified as a proximity sensor.

한편, 설명의 편의를 위해, 터치 스크린 상에 물체가 접촉되지 않으면서 근접되어 상기 물체가 상기 터치 스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 명명하고, 상기 터치 스크린 상에 물체가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 명명한다. 상기 터치 스크린 상에서 물체가 근접 터치 되는 위치라 함은, 상기 물체가 근접 터치될 때 상기 물체가 상기 터치 스크린에 대해 수직으로 대응되는 위치를 의미한다. 상기 근접 센서(441)는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지할 수 있다. 한편, 제어부(480)는 위와 같이, 근접 센서(441)를 통해 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 데이터(또는 정보)를 처리하며, 나아가, 처리된 데이터에 대응하는 시각적인 정보를 터치 스크린상에 출력시킬 수 있다. 나아가, 제어부(480)는, 터치 스크린 상의 동일한 지점에 대한 터치가, 근접 터치인지 또는 접촉 터치인지에 따라, 서로 다른 동작 또는 데이터(또는 정보)가 처리되도록 이동 단말기(310)를 제어할 수 있다.Meanwhile, for convenience of explanation, the act of approaching an object on the touch screen without touching it so that the object is recognized as being located on the touch screen is called "proximity touch," and the touch The act of actually touching an object on the screen is called “contact touch.” The position at which an object is close-touched on the touch screen means the position at which the object corresponds perpendicularly to the touch screen when the object is close-touched. The proximity sensor 441 can detect proximity touch and proximity touch patterns (e.g., proximity touch distance, proximity touch direction, proximity touch speed, proximity touch time, proximity touch position, proximity touch movement state, etc.). there is. Meanwhile, the control unit 480 processes data (or information) corresponding to the proximity touch operation and proximity touch pattern detected through the proximity sensor 441, as described above, and further provides visual information corresponding to the processed data. It can be output on the touch screen. Furthermore, the control unit 480 may control the mobile terminal 310 to process different operations or data (or information) depending on whether a touch to the same point on the touch screen is a proximity touch or a contact touch. .

터치 센서는 저항막 방식, 정전용량 방식, 적외선 방식, 초음파 방식, 자기장 방식 등 여러 가지 터치방식 중 적어도 하나를 이용하여 터치 스크린(또는 디스플레이부(451))에 가해지는 터치(또는 터치입력)을 감지한다.The touch sensor detects a touch (or touch input) applied to the touch screen (or display unit 451) using at least one of several touch methods such as resistive method, capacitive method, infrared method, ultrasonic method, and magnetic field method. sense

일 예로서, 터치 센서는, 터치 스크린의 특정 부위에 가해진 압력 또는 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는, 터치 스크린 상에 터치를 가하는 터치 대상체가 터치 센서 상에 터치 되는 위치, 면적, 터치 시의 압력, 터치 시의 정전 용량 등을 검출할 수 있도록 구성될 수 있다. 여기에서, 터치 대상체는 상기 터치 센서에 터치를 인가하는 물체로서, 예를 들어, 손가락, 터치펜 또는 스타일러스 펜(Stylus pen), 포인터 등이 될 수 있다. As an example, a touch sensor may be configured to convert changes in pressure applied to a specific part of the touch screen or capacitance occurring in a specific part into an electrical input signal. The touch sensor may be configured to detect the position, area, pressure at the time of touch, capacitance at the time of the touch, etc., at which the touch object that touches the touch screen is touched on the touch sensor. Here, the touch object is an object that applies a touch to the touch sensor, and may be, for example, a finger, a touch pen or stylus pen, or a pointer.

이와 같이, 터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(480)로 송신한다. 이로써, 제어부(480)는 디스플레이부(451)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다. 여기에서, 터치 제어기는, 제어부(480)와 별도의 구성요소일 수 있고, 제어부(480) 자체일 수 있다. In this way, when there is a touch input to the touch sensor, the corresponding signal(s) are sent to the touch controller. The touch controller processes the signal(s) and then transmits corresponding data to the control unit 480. As a result, the control unit 480 can determine which area of the display unit 451 has been touched. Here, the touch controller may be a separate component from the control unit 480 or may be the control unit 480 itself.

한편, 제어부(480)는, 터치 스크린(또는 터치 스크린 이외에 구비된 터치키)을 터치하는, 터치 대상체의 종류에 따라 서로 다른 제어를 수행하거나, 동일한 제어를 수행할 수 있다. 터치 대상체의 종류에 따라 서로 다른 제어를 수행할지 또는 동일한 제어를 수행할 지는, 현재 이동 단말기(310)의 동작상태 또는 실행 중인 응용 프로그램에 따라 결정될 수 있다. Meanwhile, the control unit 480 may perform different controls or the same control depending on the type of touch object that touches the touch screen (or touch keys provided other than the touch screen). Whether to perform different controls or the same controls depending on the type of touch object may be determined depending on the current operating state of the mobile terminal 310 or the application program being executed.

한편, 위에서 살펴본 터치 센서 및 근접 센서는 독립적으로 또는 조합되어, 터치 스크린에 대한 숏(또는 탭) 터치(short touch), 롱 터치(long touch), 멀티 터치(multi touch), 드래그 터치(drag touch), 플리크 터치(flick touch), 핀치-인 터치(pinch-in touch), 핀치-아웃 터치(pinch-out 터치), 스와이프(swype) 터치, 호버링(hovering) 터치 등과 같은, 다양한 방식의 터치를 센싱할 수 있다.Meanwhile, the touch sensor and proximity sensor discussed above are used independently or in combination to provide short (or tap) touch, long touch, multi touch, and drag touch on the touch screen. ), flick touch, pinch-in touch, pinch-out touch, swipe touch, hovering touch, etc. Touch can be sensed.

초음파 센서는 초음파를 이용하여, 감지대상의 위치정보를 인식할 수 있다. 한편 제어부(480)는 광 센서와 복수의 초음파 센서로부터 감지되는 정보를 통해, 파동 발생원의 위치를 산출하는 것이 가능하다. 파동 발생원의 위치는, 광이 초음파보다 매우 빠른 성질, 즉, 광이 광 센서에 도달하는 시간이 초음파가 초음파 센서에 도달하는 시간보다 매우 빠름을 이용하여, 산출될 수 있다. 보다 구체적으로 광을 기준 신호로 초음파가 도달하는 시간과의 시간차를 이용하여 파동 발생원의 위치가 산출될 수 있다.An ultrasonic sensor can recognize the location information of a sensing object using ultrasonic waves. Meanwhile, the control unit 480 is capable of calculating the location of the wave generator through information sensed from an optical sensor and a plurality of ultrasonic sensors. The location of the wave generator can be calculated using the property that light is much faster than ultrasonic waves, that is, the time for light to reach the optical sensor is much faster than the time for ultrasonic waves to reach the ultrasonic sensor. More specifically, the location of the wave source can be calculated using the time difference between the arrival time of the ultrasonic waves using light as a reference signal.

한편, 입력부(420)의 구성으로 살펴본, 카메라(421)는 카메라 센서(예를 들어, CCD, CMOS 등), 포토 센서(또는 이미지 센서) 및 레이저 센서 중 적어도 하나를 포함한다.Meanwhile, looking at the configuration of the input unit 420, the camera 421 includes at least one of a camera sensor (eg, CCD, CMOS, etc.), a photo sensor (or image sensor), and a laser sensor.

카메라(421)와 레이저 센서는 서로 조합되어, 3차원 입체영상에 대한 감지대상의 터치를 감지할 수 있다. 포토 센서는 디스플레이 소자에 적층될 수 있는데, 이러한 포토 센서는 터치 스크린에 근접한 감지대상의 움직임을 스캐닝 하도록 이루어진다. 보다 구체적으로, 포토 센서는 행/열에 Photo Diode와 TR(Transistor)를 실장하여 Photo Diode에 인가되는 빛의 양에 따라 변화되는 전기적 신호를 이용하여 포토 센서 위에 올려지는 내용물을 스캔 한다. 즉, 포토 센서는 빛의 변화량에 따른 감지대상의 좌표 계산을 수행하며, 이를 통하여 감지대상의 위치정보가 획득될 수 있다.The camera 421 and the laser sensor can be combined with each other to detect the touch of the sensing object for a 3D stereoscopic image. A photo sensor can be laminated on the display element, and this photo sensor is made to scan the movement of a detection object close to the touch screen. More specifically, the photo sensor mounts photo diodes and TR (transistors) in rows/columns and scans the contents placed on the photo sensor using electrical signals that change depending on the amount of light applied to the photo diode. In other words, the photo sensor calculates the coordinates of the sensing object according to the amount of change in light, and through this, location information of the sensing object can be obtained.

디스플레이부(451)는 이동 단말기(310)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 디스플레이부(451)는 이동 단말기(310)에서 구동되는 응용 프로그램의 실행화면 정보, 또는 이러한 실행화면 정보에 따른 UI(User Input), GUI(Graphic User Input) 정보를 표시할 수 있다. The display unit 451 displays (outputs) information processed in the mobile terminal 310. For example, the display unit 451 may display execution screen information of an application running on the mobile terminal 310, or UI (User Input) and GUI (Graphic User Input) information according to this execution screen information. .

또한, 상기 디스플레이부(451)는 입체영상을 표시하는 입체 디스플레이부로서 구성될 수 있다.Additionally, the display unit 451 may be configured as a three-dimensional display unit that displays a three-dimensional image.

상기 입체 디스플레이부에는 스테레오스코픽 방식(안경 방식), 오토 스테레오스코픽 방식(무안경 방식), 프로젝션 방식(홀로그래픽 방식) 등의 3차원 디스플레이 방식이 적용될 수 있다. A three-dimensional display method such as a stereoscopic method (glasses method), an autostereoscopic method (glasses-free method), or a projection method (holographic method) may be applied to the three-dimensional display unit.

음향 출력부(452)는 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(410)로부터 수신되거나 메모리(470)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력부(452)는 이동 단말기(310)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력부(452)에는 리시버(receiver), 스피커(speaker), 버저(buzzer) 등이 포함될 수 있다.The audio output unit 452 may output audio data received from the wireless communication unit 410 or stored in the memory 470 in call signal reception, call mode or recording mode, voice recognition mode, broadcast reception mode, etc. The sound output unit 452 also outputs sound signals related to functions performed in the mobile terminal 310 (eg, call signal reception sound, message reception sound, etc.). This sound output unit 452 may include a receiver, speaker, buzzer, etc.

햅틱 모듈(haptic module)(453)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(453)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 될 수 있다. 햅틱 모듈(453)에서 발생하는 진동의 세기와 패턴 등은 사용자의 선택 또는 제어부의 설정에 의해 제어될 수 있다. 예를 들어, 상기 햅틱 모듈(453)은 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다.The haptic module 453 generates various tactile effects that the user can feel. A representative example of a tactile effect generated by the haptic module 453 may be vibration. The intensity and pattern of vibration generated by the haptic module 453 can be controlled by the user's selection or settings of the control unit. For example, the haptic module 453 may synthesize and output different vibrations or output them sequentially.

햅틱 모듈(453)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(electrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다.In addition to vibration, the haptic module 453 responds to stimulation such as pin arrays moving perpendicular to the contact skin surface, blowing force or suction force of air through a nozzle or inlet, grazing the skin surface, contact with electrodes, and electrostatic force. A variety of tactile effects can be generated, including effects by reproducing hot and cold sensations using elements that can absorb heat or heat.

햅틱 모듈(453)은 직접적인 접촉을 통해 촉각 효과를 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(453)은 이동 단말기(310)의 구성 태양에 따라 2개 이상이 구비될 수 있다.The haptic module 453 can not only deliver a tactile effect through direct contact, but can also be implemented so that the user can feel the tactile effect through muscle senses such as fingers or arms. Two or more haptic modules 453 may be provided depending on the configuration of the mobile terminal 310.

광출력부(454)는 이동 단말기(310)의 광원의 빛을 이용하여 이벤트 발생을 알리기 위한 신호를 출력한다. 이동 단말기(310)에서 발생 되는 이벤트의 예로는 메시지 수신, 호 신호 수신, 부재중 전화, 알람, 일정 알림, 이메일 수신, 애플리케이션을 통한 정보 수신 등이 될 수 있다.The optical output unit 454 uses light from the light source of the mobile terminal 310 to output a signal to notify that an event has occurred. Examples of events occurring in the mobile terminal 310 may include receiving a message, receiving a call signal, a missed call, an alarm, a schedule notification, receiving an email, receiving information through an application, etc.

광출력부(454)가 출력하는 신호는 이동 단말기가 전면이나 후면으로 단색이나 복수색의 빛을 발광함에 따라 구현된다. 상기 신호 출력은 이동 단말기가 사용자의 이벤트 확인을 감지함에 의하여 종료될 수 있다.The signal output by the optical output unit 454 is realized as the mobile terminal emits light of a single color or multiple colors to the front or back. The signal output may be terminated when the mobile terminal detects the user's confirmation of the event.

인터페이스부(460)는 이동 단말기(310)에 연결되는 모든 외부 기기와의 통로 역할을 한다. 인터페이스부(460)는 외부 기기로부터 데이터를 송신 받거나, 전원을 공급받아 이동 단말기(310) 내부의 각 구성요소에 전달하거나, 이동 단말기(310) 내부의 데이터가 외부 기기로 송신되도록 한다. 예를 들어, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트(port), 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 등이 인터페이스부(460)에 포함될 수 있다.The interface unit 460 serves as a passageway for all external devices connected to the mobile terminal 310. The interface unit 460 receives data from an external device, receives power and transmits it to each component inside the mobile terminal 310, or transmits data inside the mobile terminal 310 to an external device. For example, wired/wireless headset port, external charger port, wired/wireless data port, memory card port, port for connecting a device equipped with an identification module. A port, an audio input/output (I/O) port, a video input/output (I/O) port, an earphone port, etc. may be included in the interface unit 460.

한편, 식별 모듈은 이동 단말기(310)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(user identify module; UIM), 가입자 인증 모듈(subscriber identity module; SIM), 범용 사용자 인증 모듈(universal subscriber identity module; USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 상기 인터페이스부(460)를 통하여 단말기(310)와 연결될 수 있다.Meanwhile, the identification module is a chip that stores various information for authenticating the use authority of the mobile terminal 310, and includes a user identification module (UIM), subscriber identity module (SIM), and general user authentication. It may include a module (universal subscriber identity module; USIM), etc. A device equipped with an identification module (hereinafter referred to as an 'identification device') may be manufactured in a smart card format. Therefore, the identification device can be connected to the terminal 310 through the interface unit 460.

또한, 상기 인터페이스부(460)는 이동 단말기(310)가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 이동 단말기(310)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동 단말기(310)로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 이동 단말기(310)가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수 있다.In addition, the interface unit 460 serves as a path through which power from the cradle is supplied to the mobile terminal 310 when the mobile terminal 310 is connected to an external cradle, or provides power input from the cradle by the user. It can be a passage through which various command signals are transmitted to the mobile terminal 310. Various command signals or the power input from the cradle may be operated as signals for recognizing that the mobile terminal 310 is correctly mounted on the cradle.

메모리(470)는 제어부(480)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)을 임시 저장할 수도 있다. 상기 메모리(470)는 상기 터치 스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.The memory 470 can store programs for operating the control unit 480, and can also temporarily store input/output data (eg, phone book, messages, still images, videos, etc.). The memory 470 can store data on various patterns of vibration and sound output when a touch is input on the touch screen.

메모리(470)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 이동 단말기(100)는 인터넷(internet)상에서 상기 메모리(470)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작될 수도 있다.The memory 470 is a flash memory type, hard disk type, solid state disk type, SDD type (Silicon Disk Drive type), and multimedia card micro type. ), card-type memory (e.g. SD or XD memory, etc.), random access memory (RAM), static random access memory (SRAM), read-only memory (ROM), EEPROM (electrically erasable programmable read) -only memory), PROM (programmable read-only memory), magnetic memory, magnetic disk, and optical disk may include at least one type of storage medium. The mobile terminal 100 may be operated in connection with web storage that performs the storage function of the memory 470 on the Internet.

한편, 앞서 살펴본 것과 같이, 제어부(480)는 응용 프로그램과 관련된 동작과, 통상적으로 이동 단말기(310)의 전반적인 동작을 제어한다. 예를 들어, 제어부(480)는 상기 이동 단말기의 상태가 설정된 조건을 만족하면, 애플리케이션들에 대한 사용자의 제어 명령의 입력을 제한하는 잠금 상태를 실행하거나, 해제할 수 있다. Meanwhile, as discussed above, the control unit 480 controls operations related to application programs and generally controls the overall operation of the mobile terminal 310. For example, if the state of the mobile terminal satisfies a set condition, the control unit 480 can execute or release a lock state that restricts the user's input of control commands to applications.

또한, 제어부(480)는 음성 통화, 데이터 통신, 화상 통화 등과 관련된 제어 및 처리를 수행하거나, 터치 스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다. 나아가 제어부(480)는 이하에서 설명되는 다양한 실시 예들을 본 발명에 따른 이동 단말기(310) 상에서 구현하기 위하여, 위에서 살펴본 구성요소들을 중 어느 하나 또는 복수를 조합하여 제어할 수 있다.In addition, the control unit 480 performs control and processing related to voice calls, data communications, video calls, etc., or performs pattern recognition processing to recognize handwriting input or drawing input made on the touch screen as text and images, respectively. You can. Furthermore, the control unit 480 may control any one or a combination of the components described above in order to implement various embodiments described below on the mobile terminal 310 according to the present invention.

전원 공급부(490)는 제어부(480)의 제어에 의해 외부의 전원, 내부의 전원을 인가 받아 각 구성요소들의 동작에 필요한 전원을 공급한다. 전원공급부(490)는 배터리를 포함하며, 배터리는 충전 가능하도록 이루어지는 내장형 배터리가 될 수 있으며, 충전 등을 위하여 단말기 바디에 착탈 가능하게 결합될 수 있다.The power supply unit 490 receives external power and internal power under the control of the control unit 480 and supplies power necessary for the operation of each component. The power supply unit 490 includes a battery, and the battery can be a built-in battery that can be recharged, and can be detachably coupled to the terminal body for charging, etc.

또한, 전원공급부(490)는 연결포트를 구비할 수 있으며, 연결포트는 배터리의 충전을 위하여 전원을 공급하는 외부 충전기가 전기적으로 연결되는 인터페이스(460)의 일 예로서 구성될 수 있다.Additionally, the power supply unit 490 may be provided with a connection port, and the connection port may be configured as an example of the interface 460 to which an external charger that supplies power for charging the battery is electrically connected.

다른 예로서, 전원공급부(490)는 상기 연결포트를 이용하지 않고 무선방식으로 배터리를 충전하도록 이루어질 수 있다. 이 경우에, 전원공급부(490)는 외부의 무선 전력 송신장치로부터 자기 유도 현상에 기초한 유도 결합(Inductive Coupling) 방식이나 전자기적 공진 현상에 기초한 공진 결합(Magnetic Resonance Coupling) 방식 중 하나 이상을 이용하여 전력을 전달받을 수 있다.As another example, the power supply unit 490 can charge the battery wirelessly without using the connection port. In this case, the power supply unit 490 uses one or more of the inductive coupling method based on magnetic induction phenomenon or the magnetic resonance coupling method based on electromagnetic resonance phenomenon from an external wireless power transmitter. Power can be transmitted.

한편, 이하에서 다양한 실시 예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다. Meanwhile, various embodiments below may be implemented in a recording medium readable by a computer or similar device, for example, using software, hardware, or a combination thereof.

다음으로, 본 발명에 따른 이동 단말기(310)를 통해 실시 가능한 통신 시스템에 대하여 살펴본다. Next, we will look at a communication system that can be implemented through the mobile terminal 310 according to the present invention.

먼저, 통신 시스템은, 서로 다른 무선 인터페이스 및/또는 물리 계층을 이용할 수도 있다. 예를 들어, 통신 시스템에 의해 이용 가능한 무선 인터페이스에는, 주파수 분할 다중 접속(Frequency Division Multiple Access, FDMA), 시분할 다중 접속(Time Division Multiple Access, TDMA), 코드 분할 다중 접속(Code Division Multiple Access, CDMA), 범용 이동통신 시스템(Universal Mobile Telecommunications Systems, UMTS)(특히, LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced)), 이동통신 글로벌 시스템(Global System for Mobile Communications, GSM) 등이 포함될 수 있다.First, communication systems may utilize different wireless interfaces and/or physical layers. For example, wireless interfaces available by the communication system include Frequency Division Multiple Access (FDMA), Time Division Multiple Access (TDMA), and Code Division Multiple Access (CDMA). ), Universal Mobile Telecommunications Systems (UMTS) (especially LTE (Long Term Evolution), LTE-A (Long Term Evolution-Advanced)), Global System for Mobile Communications (GSM), etc. This may be included.

이하에서는, 설명의 편의를 위하여, CDMA에 한정하여 설명하도록 한다. 그러나, 본 발명은, CDMA 무선 통신 시스템뿐만 아니라 OFDM(Orthogonal Frequency Division Multiplexing) 무선 통신 시스템을 포함한 모든 통신 시스템 적용될 수 있음은 자명하다.Hereinafter, for convenience of explanation, the description will be limited to CDMA. However, it is obvious that the present invention can be applied to all communication systems, including not only CDMA wireless communication systems but also OFDM (Orthogonal Frequency Division Multiplexing) wireless communication systems.

CDMA 무선 통신 시스템은, 적어도 하나의 단말기(100), 적어도 하나의 기지국(Base Station, BS (Node B 혹은 Evolved Node B로 명칭 될 수도 있다.)), 적어도 하나의 기지국 제어부(Base Station Controllers, BSCs), 이동 스위칭 센터(Mobile Switching Center, MSC)를 포함할 수 있다. MSC는, 일반 전화 교환망(Public Switched Telephone Network, PSTN) 및 BSCs와 연결되도록 구성된다. BSCs는, 백홀 라인(backhaul line)을 통하여, BS와 짝을 이루어 연결될 수 있다. 백홀 라인은, E1/T1, ATM, IP, PPP, Frame Relay, HDSL, ADSL 또는 xDSL 중 적어도 하나에 따라서 구비될 수 있다. 따라서, 복수의 BSCs가 CDMA 무선 통신 시스템에 포함될 수 있다.The CDMA wireless communication system includes at least one terminal 100, at least one base station (BS (may be named Node B or Evolved Node B)), and at least one base station controller (Base Station Controllers, BSCs). ), and may include a mobile switching center (MSC). The MSC is configured to connect to the Public Switched Telephone Network (PSTN) and BSCs. BSCs can be paired and connected to a BS through a backhaul line. The backhaul line may be provided according to at least one of E1/T1, ATM, IP, PPP, Frame Relay, HDSL, ADSL, or xDSL. Accordingly, multiple BSCs may be included in a CDMA wireless communication system.

복수의 BS 각각은 적어도 하나의 섹터를 포함할 수 있고, 각각의 섹터는, 전방향성 안테나 또는 BS로부`터 방사상의 특정 방향을 가리키는 안테나를 포함할 수 있다. 또한, 각각의 섹터는, 다양한 형태의 안테나를 두 개 이상 포함할 수도 있다. 각각의 BS는, 복수의 주파수 할당을 지원하도록 구성될 수 있고, 복수의 주파수 할당은 각각 특정 스펙트럼(예를 들어, 1.25MHz, 5MHz 등)을 가질 수 있다.Each of the plurality of BSs may include at least one sector, and each sector may include an omni-directional antenna or an antenna pointing in a specific radial direction from the BS. Additionally, each sector may include two or more antennas of various types. Each BS may be configured to support multiple frequency allocations, and each of the multiple frequency allocations may have a specific spectrum (eg, 1.25 MHz, 5 MHz, etc.).

섹터와 주파수 할당의 교차는, CDMA 채널이라고 불릴 수 있다. BS는, 기지국 송수신 하부 시스템(Base Station Transceiver Subsystem, BTSs)이라고 불릴 수 있다. 이러한 경우, 하나의 BSC 및 적어도 하나의 BS를 합하여 "기지국"이라고 칭할 수 있다. 기지국은, 또한 "셀 사이트"을 나타낼 수도 있다. 또는, 특정 BS에 대한 복수의 섹터들 각각은, 복수의 셀 사이트로 불릴 수도 있다.The intersection of sector and frequency allocation may be called a CDMA channel. BS may be called Base Station Transceiver Subsystem (BTSs). In this case, one BSC and at least one BS may be collectively referred to as a “base station.” A base station may also refer to a “cell site.” Alternatively, each of a plurality of sectors for a specific BS may be referred to as a plurality of cell sites.

방송 송신부(Broadcasting Transmitter, BT) 는, 시스템 내에서 동작하는 단말기들(310)에게 방송 신호를 송신한다. 도 4에 도시된 방송 수신 모듈(411)은, BT에 의해 송신되는 방송 신호를 수신하기 위해 단말기(310) 내에 구비된다.A broadcasting transmitter (BT) transmits broadcast signals to terminals 310 operating within the system. The broadcast reception module 411 shown in FIG. 4 is provided in the terminal 310 to receive a broadcast signal transmitted by BT.

뿐만 아니라, CDMA 무선 통신 시스템에는 이동 단말기(310)의 위치를 확인하기 위한, 위성 위치 확인 시스템(Global Positioning System, GPS)이 연계될 수 있다. 상기 위성은, 이동 단말기(310)의 위치를 파악하는 것을 돕는다. 유용한 위치 정보는, 두 개 이하 또는 이상의 위성들에 의해 획득될 수도 있다. 여기에서는, GPS 추적 기술뿐만 아니라 위치를 추적할 수 있는 모든 기술들을 이용하여 이동 단말기(310)의 위치가 추적될 수 있다. 또한, GPS 위성 중 적어도 하나는, 선택적으로 또는 추가로 위성 DMB 송신을 담당할 수도 있다.In addition, the CDMA wireless communication system may be linked to a global positioning system (GPS) to confirm the location of the mobile terminal 310. The satellite helps determine the location of the mobile terminal 310. Useful location information may be obtained by two or more satellites. Here, the location of the mobile terminal 310 can be tracked using not only GPS tracking technology but also any technology that can track location. Additionally, at least one of the GPS satellites may be selectively or additionally responsible for satellite DMB transmission.

이동 단말기에 구비된 위치정보 모듈(415)은 이동 단말기의 위치를 탐지, 연산 또는 식별하기 위한 것으로, 대표적인 예로는 GPS(Global Position System) 모듈 및 WiFi(Wireless Fidelity) 모듈을 포함할 수 있다. 필요에 따라서, 위치정보모듈(415)은 치환 또는 부가적으로 이동 단말기의 위치에 관한 데이터를 얻기 위해 무선 통신부(410)의 다른 모듈 중 어느 기능을 수행할 수 있다. The location information module 415 provided in the mobile terminal is used to detect, calculate, or identify the location of the mobile terminal, and representative examples may include a Global Position System (GPS) module and a Wireless Fidelity (WiFi) module. If necessary, the location information module 415 may replace or additionally perform any of the functions of other modules of the wireless communication unit 410 to obtain data regarding the location of the mobile terminal.

상기 GPS모듈(415)은 3개 이상의 위성으로부터 떨어진 거리 정보와 정확한 시간 정보를 산출한 다음 상기 산출된 정보에 삼각법을 적용함으로써, 위도, 경도, 및 고도에 따른 3차원의 현 위치 정보를 정확히 산출할 수 있다. 현재, 3개의 위성을 이용하여 위치 및 시간 정보를 산출하고, 또 다른 1개의 위성을 이용하여 상기 산출된 위치 및 시간 정보의 오차를 수정하는 방법이 널리 사용되고 있다. 또한, GPS 모듈(415)은 현 위치를 실시간으로 계속 산출함으로써 속도 정보를 산출할 수 있다. 다만, 실내와 같이 위성 신호의 음영 지대에서는 GPS 모듈을 이용하여 정확히 이동 단말기의 위치를 측정하는 것이 어렵다. 이에 따라, GPS 방식의 측위를 보상하기 위해, WPS (WiFi Positioning System)이 활용될 수 있다. The GPS module 415 calculates distance information and accurate time information from three or more satellites and then applies trigonometry to the calculated information to accurately calculate three-dimensional current location information according to latitude, longitude, and altitude. can do. Currently, a method of calculating location and time information using three satellites and correcting errors in the calculated location and time information using another satellite is widely used. Additionally, the GPS module 415 can calculate speed information by continuously calculating the current location in real time. However, it is difficult to accurately measure the location of the mobile terminal using a GPS module in areas where satellite signals are shadowed, such as indoors. Accordingly, WPS (WiFi Positioning System) can be used to compensate for GPS-based positioning.

와이파이 위치추적 시스템(WPS: WiFi Positioning System)은 이동 단말기(310)에 구비된 WiFi모듈 및 상기 WiFi모듈과 무선신호를 송신 또는 수신하는 무선 AP(Wireless Access Point)를 이용하여, 이동 단말기(310)의 위치를 추적하는 기술로서, WiFi를 이용한 WLAN(Wireless Local Area Network)기반의 위치 측위 기술을 의미한다. The WiFi Positioning System (WPS) uses a WiFi module provided in the mobile terminal 310 and a wireless AP (Wireless Access Point) that transmits or receives wireless signals with the WiFi module. As a technology for tracking the location of a device, it refers to a location determination technology based on WLAN (Wireless Local Area Network) using WiFi.

와이파이 위치추적 시스템은 와이파이 위치측위 서버, 이동 단말기(310), 상기 이동 단말기(310)와 접속된 무선 AP, 임의의 무선 AP정보가 저장된 데이터 베이스를 포함할 수 있다.The Wi-Fi location tracking system may include a Wi-Fi location determination server, a mobile terminal 310, a wireless AP connected to the mobile terminal 310, and a database storing arbitrary wireless AP information.

무선 AP와 접속 중인 이동 단말기(310)는 와이파이 위치 측위 서버로 위치정보 요청 메시지를 송신할 수 있다.The mobile terminal 310 connected to the wireless AP may transmit a location information request message to the Wi-Fi location determination server.

와이파이 위치측위 서버는 이동 단말기(310)의 위치정보 요청 메시지(또는 신호)에 근거하여, 이동 단말기(310)와 접속된 무선 AP의 정보를 추출한다. 상기 이동 단말기(310)와 접속된 무선 AP의 정보는 이동 단말기(310)를 통해 상기 와이파이 위치측위 서버로 송신되거나, 무선 AP에서 와이파이 위치측위 서버로 송신될 수 있다.The Wi-Fi location determination server extracts information on the wireless AP connected to the mobile terminal 310 based on the location information request message (or signal) of the mobile terminal 310. Information on the wireless AP connected to the mobile terminal 310 may be transmitted to the Wi-Fi location determination server through the mobile terminal 310, or may be transmitted from the wireless AP to the Wi-Fi location determination server.

상기 이동 단말기(310)의 위치정보 요청 메시지에 근거하여, 추출되는 무선 AP의 정보는 MAC Address, SSID(Service Set IDentification), RSSI(Received Signal Strength Indicator), RSRP(Reference Signal Received Power), RSRQ(Reference Signal Received Quality), 채널정보, Privacy, Network Type, 신호세기(Signal Strength) 및 노이즈 세기(Noise Strength)중 적어도 하나일 수 있다.Based on the location information request message of the mobile terminal 310, the extracted wireless AP information includes MAC Address, Service Set IDentification (SSID), Received Signal Strength Indicator (RSSI), Reference Signal Received Power (RSRP), and RSRQ ( Reference Signal Received Quality), channel information, privacy, network type, signal strength, and noise strength.

와이파이 위치측위 서버는 위와 같이, 이동 단말기(310)와 접속된 무선 AP의 정보를 수신하여, 미리 구축된 데이터베이스로부터 이동 단말기가 접속 중인 무선 AP와 대응되는 무선 AP 정보를 추출할 수 있다. 이때, 상기 데이터 베이스에 저장되는 임의의 무선 AP 들의 정보는 MAC Address, SSID, 채널정보, Privacy, Network Type, 무선 AP의 위경도 좌표, 무선 AP가 위치한 건물명, 층수, 실내 상세 위치정보(GPS 좌표 이용가능), AP소유자의 주소, 전화번호 등의 정보일 수 있다. 이때, 측위 과정에서 이동형 AP나 불법 MAC 주소를 이용하여 제공되는 무선 AP를 측위 과정에서 제거하기 위해, 와이파이 위치측위 서버는 RSSI 가 높은 순서대로 소정 개수의 무선 AP 정보만을 추출할 수도 있다.As described above, the Wi-Fi location determination server can receive information on the wireless AP connected to the mobile terminal 310 and extract wireless AP information corresponding to the wireless AP to which the mobile terminal is connected from a pre-built database. At this time, information on any wireless APs stored in the database includes MAC Address, SSID, channel information, Privacy, Network Type, latitude and longitude coordinates of the wireless AP, name of the building where the wireless AP is located, number of floors, and detailed indoor location information (GPS coordinates). available), and may be information such as the AP owner’s address and phone number. At this time, in order to remove mobile APs or wireless APs provided using illegal MAC addresses from the positioning process, the Wi-Fi location determination server may extract only a certain number of wireless AP information in order of high RSSI.

이후, 와이파이 위치측위 서버는 데이터 베이스로부터 추출된 적어도 하나의 무선 AP 정보를 이용하여 이동 단말기(310)의 위치정보를 추출(또는 분석)할 수 있다. 포함된 정보와 상기 수신된 무선 AP 정보를 비교하여, 상기 이동 단말기(310)의 위치정보를 추출(또는 분석)한다. Thereafter, the Wi-Fi location determination server may extract (or analyze) the location information of the mobile terminal 310 using at least one wireless AP information extracted from the database. By comparing the included information with the received wireless AP information, the location information of the mobile terminal 310 is extracted (or analyzed).

이동 단말기(310)의 위치정보를 추출(또는 분석)하기 위한 방법으로, Cell-ID 방식, 핑거 프린트 방식, 삼각 측량 방식 및 랜드마크 방식 등이 활용될 수 있다. As a method for extracting (or analyzing) the location information of the mobile terminal 310, the Cell-ID method, the fingerprint method, the triangulation method, and the landmark method can be used.

Cell-ID 방식은 이동 단말기가 수집한 주변의 무선 AP 정보 중 신호 세기가 가장 강한 무선 AP의 위치를 이동 단말기의 위치로 결정하는 방법이다. 구현이 단순하고 별도의 비용이 들지 않으며 위치 정보를 신속히 얻을 수 있다는 장점이 있지만 무선 AP의 설치 밀도가 낮으면 측위 정밀도가 떨어진다는 단점이 있다. The Cell-ID method is a method of determining the location of the wireless AP with the strongest signal strength among the surrounding wireless AP information collected by the mobile terminal as the location of the mobile terminal. It has the advantage of being simple to implement, requiring no additional costs, and being able to obtain location information quickly, but has the disadvantage of lowering the positioning accuracy if the installation density of wireless APs is low.

핑거프린트 방식은 서비스 지역에서 참조위치를 선정하여 신호 세기 정보를 수집하고, 수집한 정보를 바탕으로 이동 단말기에서 송신하는 신호 세기 정보를 통해 위치를 추정하는 방법이다. 핑거프린트 방식을 이용하기 위해서는, 사전에 미리 전파 특성을 데이터베이스화할 필요가 있다. The fingerprint method is a method of collecting signal strength information by selecting a reference location in the service area and estimating the location through signal strength information transmitted from the mobile terminal based on the collected information. In order to use the fingerprint method, it is necessary to create a database of radio wave characteristics in advance.

삼각 측량 방식은 적어도 세 개의 무선 AP의 좌표와 이동 단말기 사이의 거리를 기초로 이동 단말기의 위치를 연산하는 방법이다. 이동 단말기와 무선 AP사이의 거리를 측정하기 위해, 신호 세기를 거리 정보로 변환하거나, 무선 신호가 전달되는 시간(Time of Arrival, ToA), 신호가 전달되는 시간 차이(Time Difference of Arrival, TDoA), 신호가 전달되는 각도(Angle of Arrival, AoA) 등을 이용할 수 있다. The triangulation method is a method of calculating the location of a mobile terminal based on the distance between the coordinates of at least three wireless APs and the mobile terminal. To measure the distance between a mobile terminal and a wireless AP, the signal strength is converted into distance information, or the time the wireless signal is transmitted (Time of Arrival, ToA), and the time difference between the signal is transmitted (Time Difference of Arrival, TDoA). , the angle at which the signal is transmitted (Angle of Arrival, AoA), etc. can be used.

랜드마크 방식은 위치를 알고 있는 랜드마크 발신기를 이용하여 이동 단말기의 위치를 측정하는 방법이다. The landmark method is a method of measuring the location of a mobile terminal using a landmark transmitter whose location is known.

열거된 방법 이외에도 다양한 알고리즘이 이동 단말기의 위치정보를 추출(또는 분석)하기 위한 방법으로 활용될 수 있다. In addition to the methods listed, various algorithms can be used as a method to extract (or analyze) location information of a mobile terminal.

이렇게 추출된 이동 단말기(310)의 위치정보는 상기 와이파이 위치측위 서버를 통해 이동 단말기(310)로 송신됨으로써, 이동 단말기(310)는 위치정보를 획득할 수 있다.The location information of the mobile terminal 310 extracted in this way is transmitted to the mobile terminal 310 through the Wi-Fi location determination server, so that the mobile terminal 310 can obtain the location information.

이동 단말기(310)는 적어도 하나의 무선 AP 에 접속됨으로써, 위치 정보를 획득할 수 있다. 이때, 이동 단말기(310)의 위치 정보를 획득하기 위해 요구되는 무선 AP의 개수는 이동 단말기(310)가 위치한 무선 통신환경에 따라 다양하게 변경될 수 있다.The mobile terminal 310 can obtain location information by connecting to at least one wireless AP. At this time, the number of wireless APs required to obtain location information of the mobile terminal 310 may vary depending on the wireless communication environment in which the mobile terminal 310 is located.

도 5는 본 발명의 일 실시예에 의한 청소 로봇의 여러 종류를 설명하기 위한 도면이다.Figure 5 is a diagram for explaining various types of cleaning robots according to an embodiment of the present invention.

도 5에 도시된 바와 같이, 본 발명의 일 실시예에 의한 청소 로봇들은 청소의 대상물에 따라 분류될 수 있다. 예를 들어, 마른 바닥을 닦거나 물 청소 등의 바닥 닦기를 주 임무로 수행하는 제1 청소 로봇(510)이 있을 수 있다. 또한, 먼지나 작은 이물질 등의 흡입을 주 임무로 수행하는 제2 청소 로봇(520)이 있을 수 있다. 나아가, 큰 쓰레기 또는 큰 이물질 등을 줍는 것을 주 임무로 수행하는 제3 청소 로봇(530)이 있을 수 있다. 공항 내에서는 다양한 청소 임무가 필요할 수 있고, 제1 청소 로봇(510), 제2 청소 로봇(520) 및 제3 청소 로봇(530)이 적재적소에 배치될 수 있다. As shown in Figure 5, cleaning robots according to an embodiment of the present invention can be classified according to the object of cleaning. For example, there may be a first cleaning robot 510 whose main task is cleaning the floor, such as wiping dry floors or cleaning water. Additionally, there may be a second cleaning robot 520 whose main task is to suck up dust or small foreign substances. Furthermore, there may be a third cleaning robot 530 whose main task is to pick up large trash or large foreign substances. Various cleaning tasks may be required within the airport, and the first cleaning robot 510, the second cleaning robot 520, and the third cleaning robot 530 may be placed in the right place.

도 6 및 도 7은 본 발명의 일 실시예에 의한 청소 로봇들 및 공항 내 설치된 CCTV 영상을 서버가 관리하는 일 예를 설명하기 위한 도면들이다.Figures 6 and 7 are diagrams to explain an example in which a server manages cleaning robots and CCTV images installed in an airport according to an embodiment of the present invention.

도 6에 도시된 바와 같이, 공항 내에는 복수 개의 CCTV(611, 612, 613)들이 랜덤하게 배치될 수 있다. 복수 개의 CCTV(611, 612, 613)들은 공항 내 상황을 실시간으로 촬영할 수 있다. 또한, 복수 개의 CCTV(611, 612, 613)들은 실시간 촬영 영상 데이터를 적어도 하나 이상의 공항용 로봇(601, 602, 603, 604, 605, 606)들에게 전송할 수 있다. 적어도 하나 이상의 공항용 로봇(601, 602, 603, 604, 605, 606)들은 CCTV로부터 전달받은 영상 데이터를 이용하여 공항 내 다양한 곳의 청소 대상물을 탐색할 수 있다. 또한, 복수 개의 CCTV(611, 612, 613)들은 실시간 촬영 영상 데이터를 서버(620)에 전송할 수 있다. 그리고, 적어도 하나 이상의 공항용 로봇(601, 602, 603, 604, 605, 606)들은 서버로부터 특정 CCTV가 촬영한 실시간 촬영 영상 데이터를 수신할 수 있다.As shown in FIG. 6, a plurality of CCTVs 611, 612, and 613 may be randomly placed within the airport. A plurality of CCTVs (611, 612, 613) can capture the situation within the airport in real time. Additionally, a plurality of CCTVs 611, 612, and 613 may transmit real-time captured image data to at least one airport robot 601, 602, 603, 604, 605, and 606. At least one airport robot (601, 602, 603, 604, 605, 606) can search for cleaning objects in various places within the airport using video data received from CCTV. Additionally, a plurality of CCTVs 611, 612, and 613 may transmit real-time captured image data to the server 620. In addition, at least one airport robot (601, 602, 603, 604, 605, 606) can receive real-time video data captured by a specific CCTV from the server.

또한 도 7에 도시된 바와 같이, 관리자는 서버(620)로 수신되는 각종 데이터를 이용하여 복수 개의 CCTV(611, 612, 613)들 및 적어도 하나 이상의 공항용 로봇(601, 602, 603, 604, 605, 606)들을 관리할 수 있다. 예를 들어, 관리자는 특정 CCTV가 촬영하는 영상 데이터 속에서 청소 대상물을 발견할 수 있다. 그리고, 관리자는 제1 청소 로봇(510), 제2 청소 로봇(520) 및 제3 청소 로봇(530) 중 청소 대상물을 처리할 수 있는 로봇을 선택할 수 있다. 그리고, 관리자는 청소 대상물에서 가장 가까운 곳에 위치한 청소 로봇에게 해당 청소 대상물을 청소하라는 메시지를 전송할 수 있다. 또한, 관리자는 상기 특정 CCTV가 촬영하는 영상 데이터를 청소 로봇에게 전송하도록 제어할 수 있다. 서버로부터 상기 특정 CCTV가 촬영하는 영상 데이터를 수신한 청소 로봇은 특정 CCTV가 촬영하는 영상 데이터 속에서 청소 대상물을 발견할 수 있다. 그리고, 청소 로봇은 특정 CCTV가 촬영하는 장소에 대한 정보를 디텍팅할 수 있다. 그리고, 청소 로봇은 해당 장소로 이동하여 해당 청소 대상물을 청소할 수 있다. Also, as shown in FIG. 7, the manager uses various data received by the server 620 to operate a plurality of CCTVs (611, 612, 613) and at least one airport robot (601, 602, 603, 604, 605, 606) can be managed. For example, a manager can discover a cleaning object in video data captured by a specific CCTV. Additionally, the manager may select a robot that can process the cleaning object among the first cleaning robot 510, the second cleaning robot 520, and the third cleaning robot 530. Additionally, the manager may transmit a message to the cleaning robot located closest to the cleaning object to clean the cleaning object. Additionally, the manager can control video data captured by the specific CCTV to be transmitted to the cleaning robot. The cleaning robot that receives the video data captured by the specific CCTV from the server can discover the cleaning object in the video data captured by the specific CCTV. Additionally, the cleaning robot can detect information about the location where a specific CCTV is filming. Then, the cleaning robot can move to the relevant location and clean the cleaning object.

도 8 내지 도 10은 공항 내 사용자가 청소 대상물을 촬영하여 서버에 전송하는 일 예를 설명하기 위한 도면들이다.Figures 8 to 10 are diagrams to explain an example in which a user in an airport photographs a cleaning object and transmits it to a server.

본 발명의 일 실시예에 의한 청소 로봇들(510, 520, 530)은 공항 내의 각종청소 대상물을 스스로 디텍팅할 수 있다. 또한, 청소 로봇들(510, 520, 530)은 서버(830) 또는 관리자로부터 청소 대상물 정보를 수신할 수 있다. 서버(830)는 전술한 바와 같이 CCTV가 촬영한 영상 데이터를 통해 청소 대상물 정보를 센싱할 수 있다. 뿐만 아니라, 서버(830)는 공항 이용객(800)이 전송한 이미지를 통해서도 청소 대상물 정보를 센싱할 수 있다.The cleaning robots 510, 520, and 530 according to an embodiment of the present invention can independently detect various cleaning objects within the airport. Additionally, the cleaning robots 510, 520, and 530 may receive cleaning object information from the server 830 or the manager. As described above, the server 830 can sense cleaning object information through video data captured by CCTV. In addition, the server 830 can sense cleaning object information through images transmitted by the airport user 800.

예를 들어 도 8 에 도시된 바와 같이, 공항 이용객(800)은 공항 내 이동 중에 청소 대상물(820)을 발견할 수 있다. 이 경우, 공항 이용객(800)은 자신의 이동 단말기(810)를 통해 청소 대상물(820)을 촬영할 수 있다. 그리고, 공항 이용객(800)은 촬영 이미지를 곧바로 서버(830)로 전송할 수 있다. 또는 도 9에 도시된 바와 같이, 공항 이용객(800)은 이동 단말기(810)에서 공항 관리 애플리케이션(815)을 실행시킬 수 있다. 그리고 공항 이용객(800)은 청소 요청을 위하여 공항 관리 애플리케이션(815) 상에 청소 대상물(820) 촬영 이미지를 업로드할 수 있다. 도 10에 도시된 바와 같이, 공항 관리 애플리케이션(815)은 청소 대상물(820) 촬영 이미지를 서버(830)에 전송할 수 있다. 그리고, 서버(830) 또는 서버(830)의 관리자는 전송된 촬영 이미지로부터 청소 대상물(820)을 발견할 수 있다. 그리고, 서버(830) 또는 서버(830)의 관리자는 제1 청소 로봇(510), 제2 청소 로봇(520) 및 제3 청소 로봇(530) 중 청소 대상물을 처리할 수 있는 로봇을 선택할 수 있다. 그리고, 서버(830) 또는 서버(830)의 관리자는 청소 대상물(820)에서 가장 가까운 곳에 위치한 청소 로봇에게 해당 청소 대상물을 청소하라는 메시지를 전송할 수 있다. 또한, 서버(830) 또는 서버(830)의 관리자는 상기 공항 이용객(800)이 촬영한 이미지를 청소 로봇에게 전송하도록 제어할 수 있다. 서버(830)로부터 공항 이용객(800)이 촬영한 이미지를 수신한 청소 로봇은 청소 대상물(820)을 발견할 수 있다. 그리고, 청소 로봇은 촬영 장소에 대한 정보를 디텍팅할 수 있다. 그리고, 청소 로봇은 해당 장소로 이동하여 해당 청소 대상물을 청소할 수 있다.For example, as shown in FIG. 8 , an airport user 800 may discover a cleaning object 820 while moving within the airport. In this case, the airport user 800 can photograph the cleaning object 820 through his or her mobile terminal 810. Additionally, the airport user 800 can directly transmit the captured image to the server 830. Alternatively, as shown in FIG. 9 , the airport user 800 may run the airport management application 815 on the mobile terminal 810. Additionally, the airport user 800 may upload a captured image of the cleaning object 820 to the airport management application 815 to request cleaning. As shown in FIG. 10 , the airport management application 815 may transmit a captured image of the cleaning object 820 to the server 830 . Additionally, the server 830 or the manager of the server 830 may discover the cleaning object 820 from the transmitted captured image. In addition, the server 830 or the manager of the server 830 may select a robot that can process the cleaning object among the first cleaning robot 510, the second cleaning robot 520, and the third cleaning robot 530. . Additionally, the server 830 or the manager of the server 830 may transmit a message to the cleaning robot located closest to the cleaning object 820 to clean the cleaning object. Additionally, the server 830 or the manager of the server 830 may control the image captured by the airport user 800 to be transmitted to the cleaning robot. The cleaning robot that receives the image taken by the airport user 800 from the server 830 can discover the cleaning object 820. And, the cleaning robot can detect information about the shooting location. Then, the cleaning robot can move to the relevant location and clean the cleaning object.

도 11 및 도 12는 본 발명의 일 실시예에 의한 관리 로봇이 청소 로봇을 호출하는 일 예를 설명하기 위한 도면들이다.11 and 12 are diagrams for explaining an example in which a management robot calls a cleaning robot according to an embodiment of the present invention.

공항 내에는 일정 영역 별로 청소 로봇들(510, 520, 530)이 배치될 수 있다. 청소 로봇들(510, 520, 530)은 기 정해진 루트를 이동하며 청소 대상물들을 청소할 수 있다. 이 경우, 청소 로봇들(510, 520, 530)이 청소 대상물을 놓치거나, 청소 로봇들(510, 520, 530)이 특정 영역을 지나가지 않는 이벤트가 발생할 수 있다. 따라서, 이러한 이벤트를 방지하고자 공항 내에는 청소 로봇들(510, 520, 530)을 관리하는 관리 로봇이 일정 구역마다 배치될 수 있다. 그리고, 관리 로봇은 공항 내에서 일정 구역을 배회하며 청소 대상물을 발견할 수 있다. 그리고, 관리 로봇은 제1 청소 로봇(510), 제2 청소 로봇(520) 및 제3 청소 로봇(530) 중 청소 대상물을 처리할 수 있는 청소 로봇을 선택할 수 있다. 그리고, 관리 로봇은 청소 대상물에서 가장 가까운 곳에 위치한 청소 로봇을 호출할 수 있다. 그리고, 관리 로봇은 호출된 청소 로봇에게 해당 청소 대상물을 청소하라는 메시지를 전송할 수 있다.Cleaning robots 510, 520, and 530 may be deployed in certain areas within the airport. Cleaning robots 510, 520, and 530 may move a predetermined route and clean cleaning objects. In this case, an event may occur in which the cleaning robots 510, 520, and 530 miss the cleaning object or the cleaning robots 510, 520, and 530 do not pass a specific area. Therefore, in order to prevent such events, management robots that manage the cleaning robots 510, 520, and 530 may be placed in certain areas within the airport. Additionally, the management robot can wander around a certain area within the airport and discover objects to be cleaned. Additionally, the management robot may select a cleaning robot that can process the cleaning object among the first cleaning robot 510, the second cleaning robot 520, and the third cleaning robot 530. Additionally, the management robot may call the cleaning robot located closest to the cleaning object. Additionally, the management robot may transmit a message to the called cleaning robot to clean the corresponding cleaning object.

예를 들어 도 11에 도시된 바와 같이, 관리 로봇(1100)은 공항 내에서 일정 구역을 배회하며 청소 대상물(1120)을 발견할 수 있다. 그리고, 관리 로봇(1100)은 제1 청소 로봇(510), 제2 청소 로봇(520) 및 제3 청소 로봇(530) 중 청소 대상물(1120)을 처리할 수 있는 청소 로봇(1110)을 선택할 수 있다. 그리고, 관리 로봇(1100)은 청소 대상물(1120)에서 가장 가까운 곳에 위치한 청소 로봇(1110)을 호출할 수 있다. 그리고 도 12에 도시된 바와 같이, 청소 로봇(1110)이 청소 대상물(1120)로부터 기 정해진 범위 내에 들어올 수 있다. 그리고, 관리 로봇(1100)은 청소 로봇(1110)에게 해당 청소 대상물(1120)을 청소하도록 하는 메시지를 전송할 수 있다. For example, as shown in FIG. 11, the management robot 1100 may wander around a certain area within the airport and discover a cleaning object 1120. In addition, the management robot 1100 may select the cleaning robot 1110 that can process the cleaning object 1120 among the first cleaning robot 510, the second cleaning robot 520, and the third cleaning robot 530. there is. Additionally, the management robot 1100 may call the cleaning robot 1110 located closest to the cleaning object 1120. And as shown in FIG. 12, the cleaning robot 1110 can come within a predetermined range from the cleaning object 1120. Additionally, the management robot 1100 may transmit a message to the cleaning robot 1110 to clean the corresponding cleaning object 1120.

도 13 내지 도 15는 본 발명의 일 실시예에 의한 청소 로봇이 사물 인터넷 기술을 이용하여 쓰레기통을 정리하는 일 예를 설명하기 위한 도면들이다.Figures 13 to 15 are diagrams to explain an example in which a cleaning robot organizes a trash can using Internet of Things technology according to an embodiment of the present invention.

본 발명의 일 실시예에 의한 청소 로봇이 배치되는 공항 시설에는 사물 인터넷 기술이 적용될 수 있다. 사물인터넷(IoT: Internet of Things)이라는 용어는 1998년 메사추세츠공과대학(MIT)의 Auto-ID 랩에서 처음등장하였다. 사물 인터넷은 생활 속 사물들을 유무선 네트워크로 연결해 정보를 공유하는 환경을 의미할 수 있다. 사물 인터넷은 기존의 유선 통신을 기반으로 한 인터넷이나 모바일 인터넷보다 진화된 단계로 인터넷에 연결된 기기가 사람의 개입없이 상호간에 알아서 정보를 주고 받아 처리할 수 있다. 사물이 인간에 의존하지 않고 통신을 주고 받는 점에서 기존의 유비쿼터스나 M2M(Machine to Machine: 사물지능통신)과 비슷하기도 하지만, 통신장비와 사람과의 통신을 주목적으로 하는 M2M의 개념을 인터넷으로 확장하여 사물은 물론이고 현실과 가상세계의 모든 정보와 상호 작용하는 개념으로 진화한 단계라고 할 수 있다. 사물 인터넷 서비스를 구현하기 위한 기술 요소로는 유형의 사물과 주위 환경으로부터 정보를 얻는 '센싱 기술', 사물이 인터넷에 연결되도록 지원하는 '유무선 통신 및 네트워크 인프라 기술', 각종 서비스 분야와 형태에 적합하게 정보를 가공하고 처리하거나 각종 기술을 융합하는 '서비스 인터페이스 기술'이 핵심이며, 대량의 데이터 등 사물 인터넷 구성 요소에 대한 해킹이나 정보 유출을 방지하기 위한 '보안 기술'이 있다. Internet of Things technology can be applied to airport facilities where cleaning robots according to an embodiment of the present invention are deployed. The term Internet of Things (IoT) first appeared in 1998 at the Auto-ID Lab at the Massachusetts Institute of Technology (MIT). The Internet of Things can refer to an environment where everyday objects are connected through wired and wireless networks to share information. The Internet of Things is a more advanced stage than the Internet or mobile Internet based on existing wired communications, and devices connected to the Internet can exchange and process information with each other without human intervention. It is similar to existing ubiquitous or M2M (Machine to Machine: Machine-to-Machine) communication in that objects communicate without relying on humans, but the concept of M2M, which primarily aims at communicating between communication equipment and people, is extended to the Internet. Therefore, it can be said to be an evolved concept that interacts not only with objects but also with all information in the real and virtual world. Technical elements for implementing IoT services include 'sensing technology' that obtains information from tangible objects and the surrounding environment, 'wired and wireless communication and network infrastructure technology' that supports objects to connect to the Internet, and suitable for various service fields and types. The key is 'service interface technology', which processes and processes information or integrates various technologies, and there is 'security technology' to prevent hacking or information leakage of Internet of Things components such as large amounts of data.

예를 들어 도 13에 도시된 바와 같이, 본 발명의 일 실시예에 의한 청소 로봇(1300)은 쓰레기통(1310)과 데이터를 송/수신할 수 있다. 이 때, 쓰레기통(1310)은 청소 로봇(1300)에게 쓰레기통을 정리해 달라는 요청 메시지를 전송할 수 있다. 또는 도 14에 도시된 바와 같이. 청소 로봇(1300)과 쓰레기통(1310)은 서버(1330)를 거쳐서 데이터를 메시지를 송/수신할 수 있다. 즉, 쓰레기통(1310)은 쓰레기통을 정리해 달라는 요청 메시지를 서버(1330)에 전송할 수 있다. 그리고, 서버(1330)는 쓰레기통(1310) 주변 청소 로봇들 중에서 쓰레기통을 정리할 수 있는 청소 로봇(1300)을 디텍팅할 수 있다. 그리고, 서버(1330)는 쓰레기통(1310)을 정리할 것을 요청하는 메시지를 청소 로봇(1300)에게 전송할 수 있다. 그리고 도 15에 도시된 바와 같이, 쓰레기통(1310) 또는 서버(1330)로부터 메시지를 전송 받은 청소 로봇(1300)은 쓰레기통(1310)을 하역장(1320)으로 이동시킬 수 있다. 그리고, 청소 로봇(1300)은 쓰레기통(1310)을 정리할 수 있다. For example, as shown in FIG. 13, the cleaning robot 1300 according to an embodiment of the present invention can transmit/receive data to/from the trash can 1310. At this time, the trash can 1310 may transmit a request message to the cleaning robot 1300 to clean the trash can. Or as shown in Figure 14. The cleaning robot 1300 and the trash can 1310 can send/receive data messages through the server 1330. That is, the trash can 1310 may transmit a request message to the server 1330 to clean out the trash can. Additionally, the server 1330 can detect the cleaning robot 1300 that can clean the trash can among cleaning robots around the trash can 1310. Additionally, the server 1330 may transmit a message requesting to clean the trash can 1310 to the cleaning robot 1300. And as shown in FIG. 15 , the cleaning robot 1300 that receives a message from the trash can 1310 or the server 1330 can move the trash can 1310 to the loading dock 1320. And, the cleaning robot 1300 can organize the trash can 1310.

도 16 내지 도 19는 본 발명의 일 실시예에 의한 청소 로봇을 사용자가 원격 제어 장치로 제어하는 일 예를 설명하기 위한 도면들이다.Figures 16 to 19 are diagrams to explain an example in which a user controls a cleaning robot using a remote control device according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 청소 로봇(1600)의 구동을 원격으로 제어 하기 위한 원격 제어 장치(1610)를 포함할 수 있다. 원격 제어 장치(1610)는 전술한 이동 단말기(310)일 수 있다. 그리고, 원격 제어 장치(200)가 청소 로봇(1600)의 구동을 제어하기 위해서는 청소 로봇(1600)의 정확한 위치 정보가 수반될 수 있다. 구체적으로는 실제 영역과 가상 영역 사이의 맵핑이 필요할 수 있다. 이를 해결하기 위하여, 본 발명의 일 실시예에 따른 청소 로봇(1600)을 제어하기 위한 원격 제어 장치(1610)의 카메라를 이용하여 생성한 영상 정보를 기초로 청소 로봇(1600)을 감지하여 청소 로봇(1600)의 위치 정보를 생성할 수 있다.It may include a remote control device 1610 for remotely controlling the operation of the cleaning robot 1600 according to an embodiment of the present invention. The remote control device 1610 may be the mobile terminal 310 described above. Additionally, in order for the remote control device 200 to control the operation of the cleaning robot 1600, accurate location information of the cleaning robot 1600 may be required. Specifically, mapping between real areas and virtual areas may be necessary. To solve this problem, the cleaning robot 1600 is detected based on image information generated using the camera of the remote control device 1610 for controlling the cleaning robot 1600 according to an embodiment of the present invention. (1600) location information can be generated.

먼저, 원격 제어 장치(1610) 바디의 후면에 마련된 카메라로 도 16에 도시된 바와 같이 청소 로봇(1600) 및 청소 로봇(1600)의 주변 영역을 촬영하여 영상 정보를 생성할 수 있다. 이와 같이 생성된 청소 로봇(1600)의 영상 정보는 서버로 전달될 수 있다.First, image information can be generated by photographing the cleaning robot 1600 and the surrounding area of the cleaning robot 1600, as shown in FIG. 16, using a camera provided on the rear of the body of the remote control device 1610. Image information of the cleaning robot 1600 generated in this way can be transmitted to the server.

다음으로, 원격 제어 장치(1610)는 상기 영상 정보를 기초로 청소 로봇(1600)이 위치되는 실제 영역과 영상 정보로 나타나는 가상 영역을 맵핑하게 된다. 이를 원격 제어 장치(1610)에서 청소 로봇(1600)을 감지하는 것이라 할 수 있다. 청소 로봇(1600)의 상면에는 외부 장치를 이용하여 청소 로봇(1600)을 감지할 수 있도록 마련된 인식 마크가 구비될 수 있다. 여기서 인식 마크의 형상은 특별히 한정되지는 않는다. 예를 들어, 인식 마크는 원형으로 형성될 수 있으며, 이 경우에는 인식 마크의 폭(W)과 높이(H)는 서로 동일한 값을 가질 수 있다.Next, the remote control device 1610 maps the actual area where the cleaning robot 1600 is located and the virtual area represented by the image information based on the image information. This can be said to be the remote control device 1610 detecting the cleaning robot 1600. A recognition mark may be provided on the upper surface of the cleaning robot 1600 to enable the cleaning robot 1600 to be detected using an external device. Here, the shape of the recognition mark is not particularly limited. For example, the recognition mark may be formed in a circular shape, and in this case, the width (W) and height (H) of the recognition mark may have the same value.

원격 제어 장치(1610)의 메모리에는 인식 마크의 실제 형상이 저장되어 있을 수 있다. 즉, 상기 인식 마크 실제 사이즈 등을 포함하는 정보가 저장되어 있을 수 있다. 서버는 상기 영상 정보의 이미지상에서 인식 마크를 추출하고, 추출된 인식 마크가 유효한 인식 마크인지 판단하는 방법으로 청소 로봇(1600)을 감지할 수 있다. 여기서, 서버는 영상 정보 이미지상에서 인식 마크를 추출하기 위하여, 예를 들어 인식 마크의 형상이나 패턴 또는 인식 마크의 특정 컬러를 확인할 수 있다.The actual shape of the recognition mark may be stored in the memory of the remote control device 1610. That is, information including the actual size of the recognition mark may be stored. The server can detect the cleaning robot 1600 by extracting a recognition mark from the image of the video information and determining whether the extracted recognition mark is a valid recognition mark. Here, in order to extract the recognition mark from the video information image, the server may check, for example, the shape or pattern of the recognition mark or the specific color of the recognition mark.

그런데, 영상 정보의 이미지의 화질이 나쁜 경우에는, 서버가 인식 마크를 감지하기가 어렵다. 따라서, 서버는 영상 정보의 이미지로부터 인식 마크를 추출하기 이전에 영상 정보의 이미지의 화질을 개선할 수 있다.However, when the image quality of the video information is poor, it is difficult for the server to detect the recognition mark. Accordingly, the server can improve the quality of the image of the video information before extracting the recognition mark from the image of the video information.

여기서, 서버는 영상 정보의 이미지의 화질을 개선하기 위하여, 예를 들어 이미지 밝기 조정, 노이즈 제거, 컬러 보정 등을 할 수 있다.Here, the server may perform, for example, image brightness adjustment, noise removal, color correction, etc. to improve the image quality of the image information.

다음으로, 원격 제어 장치(1610)는 인식 마크의 실제 형상 정보와 영상 정보에 의해 파악되는 상대적인 형상을 비교하여 청소 로봇(1600)의 위치 정보를 생성할 수 있다. 즉, 실제 영역과 가상 영역의 매핑이 수행될 수 있다. Next, the remote control device 1610 may generate location information of the cleaning robot 1600 by comparing the actual shape information of the recognition mark and the relative shape identified by the image information. That is, mapping between the real area and the virtual area can be performed.

상술한 바와 같이 원격 제어 장치(1610)는 청소 로봇(1600) 및 그 주변 영역에 대한 영상 정보를 생성하고, 이러한 영상 정보를 기초로 청소 로봇(1600)을 감지하여 그 위치 정보를 생성할 수 있다. 또한, 원격 제어 장치(1610)의 디스플레이부는 청소 로봇(1600)과 그 주변 영역에 대한 영상 정보를 출력하는데, 특히 서버는 청소 로봇(1600)의 위치 정보를 기초로 디스플레이부의 화면상에서 청소 로봇(1600)을 선택 가능하게 특정할 수 있다. 이에 따라, 사용자는 디스플레이부를 통해 청소 로봇(1600)의 현재 상태를 관찰하면서, 청소 로봇(1600) 의 구동을 제어할 수 있다. 한편, 청소 로봇(1600)의 구동을 제어하기 위하여, 원격 제어 장치(1610)는 청소 로봇(1600)의 제어 신호를 입력하는 입력부를 더 포함할 수 있다. 마이크, 사용자 입력부 및 터치 입력을 감지하는 터치 센서가 마련된 디스플레이부 등이 입력부로서 기능할 수 있다.As described above, the remote control device 1610 generates image information about the cleaning robot 1600 and its surrounding area, and detects the cleaning robot 1600 based on this image information to generate location information. . In addition, the display unit of the remote control device 1610 outputs image information about the cleaning robot 1600 and its surrounding area. In particular, the server displays the cleaning robot 1600 on the screen of the display unit based on the location information of the cleaning robot 1600. ) can be specified as selectable. Accordingly, the user can control the driving of the cleaning robot 1600 while observing the current state of the cleaning robot 1600 through the display unit. Meanwhile, in order to control the operation of the cleaning robot 1600, the remote control device 1610 may further include an input unit for inputting a control signal of the cleaning robot 1600. A microphone, a user input unit, and a display unit equipped with a touch sensor that detects touch input may function as an input unit.

원격 제어 장치(1610)에서 청소 로봇(1600)의 제어 신호가 입력되면, 원격 제어 장치(1610)의 무선 통신부는 청소 로봇(1600)의 무선 통신부에 제어 신호를 전달할 수 있다. 그리고, 청소 로봇(1600)은 제어 신호에 따라 구동될 수 있다.When a control signal for the cleaning robot 1600 is input from the remote control device 1610, the wireless communication unit of the remote control device 1610 may transmit the control signal to the wireless communication unit of the cleaning robot 1600. And, the cleaning robot 1600 can be driven according to control signals.

예를 들어, 터치 입력을 통해 청소 로봇(1600)의 청소 영역을 설정할 수 있다. 도 17에 도시된 바와 같이, 디스플레이부의 화면상에서 가상 영역(A)을 지정해 주면, 서버는 영역(A)와 대응되는 실내 공간의 실제 영역(A')을 청소 영역으로 지정할 수 있다. 이에 따라 청소 로봇(1600)이 청소 영역으로 이동하여 이에 대한 청소를 수행할 수 있다.For example, the cleaning area of the cleaning robot 1600 can be set through a touch input. As shown in FIG. 17, if a virtual area (A) is designated on the screen of the display unit, the server can designate the actual area (A') of the indoor space corresponding to the area (A) as the cleaning area. Accordingly, the cleaning robot 1600 can move to the cleaning area and perform cleaning.

즉, 디스플레이부에 나타나는 가상 영역을 실제 영역으로 매핑하여, 청소 로봇(1600)에게 실제 이동 좌표를 전송할 수 있다. 예를 들어, 디스플레이부에서 지정한 가상 영역(A)가 디스플레이부의 청소기 중심에서 우측으로 5센치미터 떨어진 영역이라고 가정할 때, 실제 영역(A')는 실제 청소기 중심에서 우측으로 1미터 떨어진 영역으로 매핑될 수 있다. 물론, 이러한 매핑은 전술한 바와 같이 실제 인식 수단의 형상과 크기를 영상 정보를 통한 상대적인 인식 수단의 형상과 크기를 비교한 매핑 정보를 통해 수행될 수 있다. 따라서, 가상 영역을 실제 영역으로 매핑된 매핑 정보가 상기 청소 로봇(1600)으로 전달되어, 청소 로봇(1600)은 이를 기반으로 하여 청소를 수행할 수 있다.That is, the virtual area appearing on the display unit can be mapped to the real area, and the actual movement coordinates can be transmitted to the cleaning robot 1600. For example, assuming that the virtual area (A) specified in the display unit is an area 5 centimeters to the right from the center of the vacuum cleaner in the display unit, the actual area (A') is mapped to an area 1 meter to the right from the center of the actual vacuum cleaner. It can be. Of course, as described above, this mapping can be performed through mapping information that compares the shape and size of the actual recognition means with the shape and size of the relative recognition means through image information. Accordingly, mapping information that maps the virtual area to the real area is transmitted to the cleaning robot 1600, and the cleaning robot 1600 can perform cleaning based on this.

즉, 본 발명의 일 실시예에서는 디스플레이부에 출력되는 실내 공간의 영상(즉, 가상 영역)을 매개로 하여 터치 입력을 통해 간단히 청소 영역을 설정할 수 있다. 그 결과, 사용자가 원하는 영역에 대해서만 청소를 수행할 수 있어 청소 시간을 단축시키고 전기 사용량을 줄일 수 있다.That is, in one embodiment of the present invention, the cleaning area can be simply set through a touch input using an image of an indoor space (i.e., a virtual area) displayed on the display unit. As a result, cleaning can be performed only on the area desired by the user, shortening cleaning time and reducing electricity usage.

또한 사용자(1810)는 마이크를 통한 음성 입력을 통해 청소 로봇(1800)의 이동을 제어할 수 있다. 예를 들어, 사용자(1810)는 음성 입력을 통해 청소 로봇(1800)를 사용자(1810)의 위치로 호출할 수 있다. 도 18에 도시된 바와 같이, 사용자(1810)가 원격 제어 장치(1610)의 마이크에 대하여 기 설정된 맨트를 음성 입력하면 청소 로봇(1800)은 위치 정보를 기초로 원격 제어 장치(1610)의 위치, 즉 사용자(1810)의 위치로 이동할 수 있다.Additionally, the user 1810 can control the movement of the cleaning robot 1800 through voice input through a microphone. For example, the user 1810 may call the cleaning robot 1800 to the user's 1810 location through voice input. As shown in FIG. 18, when the user 1810 inputs a preset mant into the microphone of the remote control device 1610, the cleaning robot 1800 determines the location of the remote control device 1610 based on the location information, That is, it is possible to move to the location of the user 1810.

전술한 바와 같이, 실제 영역과 가상 영역의 매핑을 통해 디스플레이부를 통해 로봇 청소기의 무선 컨트롤이 가능함을 알 수 있다. 따라서, 일단 매핑이 수행되면 사용자가 실제 영역이나 청소 로봇을 직접 주시할 필요가 없다. 즉, 매핑이 수행되면, 사용자는 다른 영역으로 이동하더라도 디스플레이부를 통해 로봇 청소기의 무선 컨트롤이 가능하게 된다. 물론, 이 경우 원격 제어 장치(1610)와 청소 로봇(1800)의 무선 통신은 유지되어야 할 것이다.As described above, it can be seen that wireless control of the robot vacuum cleaner is possible through the display unit through mapping between the real area and the virtual area. Therefore, once the mapping is performed, there is no need for the user to look directly at the actual area or the cleaning robot. In other words, once mapping is performed, wireless control of the robot vacuum cleaner is possible through the display unit even if the user moves to another area. Of course, in this case, wireless communication between the remote control device 1610 and the cleaning robot 1800 must be maintained.

일반적으로 청소 로봇이 청소하는 영역은 고정될 수 있다. 이 경우, 원격 제어 장치(1610)를 통한 청소 로봇(1600)의 감지 또는 실제 영역과 가상 영역의 매핑은 지속적으로 유지될 수 있다. 즉, 한 번의 감지 또는 매핑을 그대로 이용하는 것이 가능하다. 따라서, 무선 컨트롤을 할 때마다 청소 로봇을 촬영할 필요가 없을 수 있다. 즉, 종래의 촬영된 영상 정보를 저장하고 무선 컨트롤을 할 때마다 상기 영상 정보를 디스플레이부로 표시할 수 있다.Generally, the area cleaned by the cleaning robot can be fixed. In this case, detection of the cleaning robot 1600 or mapping of the real area and the virtual area through the remote control device 1610 may be continuously maintained. In other words, it is possible to use a single detection or mapping as is. Therefore, there may be no need to film the cleaning robot every time it is wirelessly controlled. That is, conventionally captured image information can be stored and displayed on the display unit each time wireless control is performed.

이후, 상기 디스플레이부에 표시된 가상 영역을 통해 반복적으로 무선 컨트롤을 할 수 있다. 이 경우, 청소 로봇(1600)과 원격 제어 장치(1610) 사이의 무선 통신이 가능한 환경이라면, 사용자가 원격 제어 장치(1610)를 갖고 외부에서도 청소 로봇(1600)의 무선 컨트롤을 할 수 있게 된다.Afterwards, wireless control can be repeatedly performed through the virtual area displayed on the display unit. In this case, if there is an environment where wireless communication between the cleaning robot 1600 and the remote control device 1610 is possible, the user can wirelessly control the cleaning robot 1600 from outside with the remote control device 1610.

일례로, 공항 내의 와이파이 AP를 통해 청소 로봇(1600)이 무선 통신 연결되고, 사용자의 원격 제어 장치(1610)는 서버와 상기 와이파이 AP를 통해 상기 청소 로봇(1600)과 무선 통신 연결될 수 있다. 따라서, 사용자는 공항 로비가 아닌 외부 사무실 등에서 공항 로비 등에 배치되는 청소 로봇들을 무선 컨트롤할 수 있다.For example, the cleaning robot 1600 may be connected to wireless communication through a Wi-Fi AP within the airport, and the user's remote control device 1610 may be connected to the cleaning robot 1600 through wireless communication through a server and the Wi-Fi AP. Accordingly, users can wirelessly control cleaning robots placed in airport lobbies, etc., from an external office, etc., rather than the airport lobby.

도 19를 이용하여 이동 단말기와 같은 원격 제어 장치로 청소 로봇을 원격 제어하는 방법을 설명하도록 하겠다. Using FIG. 19, we will explain how to remotely control a cleaning robot with a remote control device such as a mobile terminal.

청소 로봇(1600), 그리고 카메라 및 디스플레이부를 가지는 원격 제어 장치(1610)를 포함하는 공항 내 청소 로봇 원격 제어 시스템에 있어서, 카메라를 통해 청소 로봇(1600)과 그 주변 영역에 대한 영상 정보를 생성하는 단계(S1920), 그리고 영상 정보를 기초로 청소 로봇(1600)을 감지하는 단계(S1930)를 포함할 수 있다. 아울러 청소 로봇(1600)의 위치 정보를 생성하는 단계(S1940)를 포함할 수 있다. 즉, 생성된 영상 정보를 통해 실제 영역과 가상 영역을 매핑하는 단계가 수행될 수 있다.In the airport cleaning robot remote control system including a cleaning robot 1600 and a remote control device 1610 having a camera and a display unit, image information about the cleaning robot 1600 and its surrounding area is generated through the camera. It may include a step (S1920) and a step (S1930) of detecting the cleaning robot 1600 based on image information. In addition, a step of generating location information of the cleaning robot 1600 (S1940) may be included. In other words, a step of mapping the real area and the virtual area can be performed through the generated image information.

한편, 영상 정보 및 위치 정보를 디스플레이부에 출력하는 단계(S1950)를 포함할 수 있으며, 이러한 단계는 영상 정보가 생성됨으로써 수행될 수 있다. 이후, 위치 정보를 기초로 위치 기반 서비스를 제공하는 단계(S1960)가 수행될 수 있다.Meanwhile, a step of outputting image information and location information to the display unit (S1950) may be included, and this step may be performed by generating image information. Afterwards, a step of providing location-based services based on location information (S1960) may be performed.

도 20은 본 발명의 일 실시예에 의한 공항용 청소 로봇의 구성을 블록도로 도시한 도면이다. 도 5 내지 도 19에서 설명한 본 발명의 일 실시예에 의한 공항용 보조 로봇에 대하여 정리하면, 도 1 및 도 2에 기재된 블록도는 도 20으로 간략화될 수 있다.Figure 20 is a block diagram showing the configuration of an airport cleaning robot according to an embodiment of the present invention. To summarize the airport assistance robot according to an embodiment of the present invention described in FIGS. 5 to 19, the block diagram shown in FIGS. 1 and 2 can be simplified to FIG. 20.

본 발명의 일 실시예에 의한 공항용 청소 로봇(2000)은 데이터를 송수신하는 통신부(2040)를 포함할 수 있다. 그리고 공항용 청소 로봇(2000)은, 위치 정보를 리드하는 위치 인식부(2010)를 포함할 수 있다. 그리고 공항용 청소 로봇(2000)은,The airport cleaning robot 2000 according to an embodiment of the present invention may include a communication unit 2040 that transmits and receives data. And the airport cleaning robot 2000 may include a location recognition unit 2010 that reads location information. And the airport cleaning robot (2000),

청소 및 이동을 수행하는 구동부(2020)를 포함할 수 있다. 그리고 공항용 청소 로봇(2000)은, 사물의 외관을 촬영하는 카메라(2030)를 포함할 수 있다. 그리고 공항용 청소 로봇(2000)은, 제어부(2050)를 포함할 수 있다. 그리고 청소 요청 메시지를 수신하면, 제어부(2050)는 청소 요청 메시지에 포함된 위치 정보를 리드하여 청소 장소로 이동할 수 있다. 그리고 제어부(2050)는 청소 요청 메시지에 포함된 제1 청소 대상물 정보를 리드할 수 있다. 그리고 제어부(2050)는 상기 청소 장소에서 청소 대상물을 스캔할 수 있다. 그리고 제어부(2050)는 스캔된 청소 대상물의 이미지로 제2 청소 대상물 정보를 리드할 수 있다. 그리고 제어부(2050)는 제1 청소 대상물 정보 및 상기 제2 청소 대상물 정보가 일치하는지 여부를 판단할 수 있다. 그리고 제어부(2050)는 일치하는 것으로 판단하면 청소 대상물을 청소하도록 제어할 수 있다. 제1 청소 대상물 정보 및 상기 제2 청소 대상물 정보는 청소 방식, 대상물 크기, 대상물의 외관 이미지, 대상물의 주변 이미지 정보를 포함할 수 있다. 청소 요청 메시지는 공항에 배치된 관리 로봇으로부터 수신될 수 있다. 청소 요청 메시지는 공항 청소 관리 서버로부터 수신될 수 있다. 청소 요청 메시지는 공항 청소 애플리케이션으로부터 수신될 수 있다.It may include a driving unit 2020 that performs cleaning and movement. Additionally, the airport cleaning robot 2000 may include a camera 2030 that photographs the exterior of an object. And the airport cleaning robot 2000 may include a control unit 2050. And upon receiving the cleaning request message, the control unit 2050 can move to the cleaning location by reading the location information included in the cleaning request message. And the control unit 2050 can read the first cleaning object information included in the cleaning request message. And the control unit 2050 can scan the cleaning object at the cleaning location. And the control unit 2050 can read the second cleaning object information using the scanned image of the cleaning object. And the control unit 2050 may determine whether the first cleaning object information and the second cleaning object information match. And if the control unit 2050 determines that there is a match, it can control the cleaning object to be cleaned. The first cleaning object information and the second cleaning object information may include a cleaning method, object size, external image of the object, and surrounding image information of the object. A cleaning request message may be received from a management robot deployed at the airport. A cleaning request message may be received from an airport cleaning management server. A cleaning request message may be received from an airport cleaning application.

본 발명의 일 실시예에 의한 처리 시스템에 의해 실행하기 위한 컴퓨터-실행가능 명령들을 포함하는 컴퓨터-판독가능 저장 매체로서, 공항용 청소 로봇을 제어하기 위한 상기 컴퓨터-실행가능 명령들은, 청소 대상물을 스캔하는 명령들, 상기 청소 대상물의 타입을 결정하는 명령들, 상기 결정된 청소 대상물의 타입에 대응하는 청소 로봇의 타입을 결정하는 명령들, 상기 청소 대상물의 위치를 결정하는 명령들 및 상기 결정된 청소 로봇의 타입에 매칭되는 청소 로봇들 중에서, 상기 청소 대상물의 위치에서 가장 가까운 청소 로봇에게 청소 요청 메시지를 전송하는 명령들을 포함할 수 있다. 상기 청소 대상물을 스캔하는 명령들은 CCTV 영상 데이터를 수신하는 명령들 및 수신된 CCTV 영상 데이터에서 청소 대상물을 스캔하는 명령들을 포함할 수 있다. 상기 청소 대상물을 스캔하는 명령들은 공항 청소 애플리케이션으로부터 이미지 데이터를 수신하는 명령들 및 수신된 이미지 데이터에서 청소 대상물을 스캔하는 명령들을 포함할 수 있다. 상기 청소 로봇의 타입은 바닥 닦기를 주 임무로 수행하는 제1 타입의 청소 로봇, 기 정해진 크기 미만의 이물질의 흡입을 주 임무로 수행하는 제2 타입의 청소 로봇 및 기 정해진 크기 이상의 이물질의 제거를 주 임무로 수행하는 제3 타입의 청소 로봇을 포함할 수 있다. 상기 컴퓨터-실행가능 명령들은, 청소 대상물이 기 정해진 크기 이상인 경우, 거리 우선순위에 따라 복수 개의 로봇들에게 청소 요청 메시지를 전송하는 명령들을 더 포함할 수 있다. A computer-readable storage medium containing computer-executable instructions for execution by a processing system according to an embodiment of the present invention, wherein the computer-executable instructions for controlling an airport cleaning robot include: Commands for scanning, commands for determining a type of the cleaning object, commands for determining a type of cleaning robot corresponding to the determined type of cleaning object, commands for determining a position of the cleaning object, and the determined cleaning robot. Among the cleaning robots that match the type, commands for transmitting a cleaning request message to the cleaning robot closest to the location of the cleaning object may be included. The commands for scanning the cleaning object may include commands for receiving CCTV image data and commands for scanning the cleaning object in the received CCTV image data. The commands for scanning the cleaning object may include commands for receiving image data from an airport cleaning application and commands for scanning the cleaning object in the received image data. The types of cleaning robots include a first type of cleaning robot whose main task is to wipe the floor, a second type of cleaning robot whose main task is to suck foreign substances of less than a predetermined size, and removal of foreign substances of a predetermined size or larger. It may include a third type of cleaning robot that performs its main mission. The computer-executable instructions may further include instructions for transmitting a cleaning request message to a plurality of robots according to distance priority when the cleaning object is larger than a predetermined size.

본 발명의 다른 일 실시예에 의한 공항용 청소 로봇은 외관을 형성하는 본체(2000), 이동 및 청소를 수행하는 구동부(2020) 및 원격 제어 장치와 데이터를 송수신하는 통신부(2040)를 포함할 수 있다. 본체(2000)에는 원격 제어 장치를 통해서 상기 공항용 청소 로봇에 대한 위치 기반 서비스를 제공하기 위하여, 공항용 청소 로봇이 위치하는 실제 영역과 상기 원격 제어 장치의 디스플레이부에 표시되는 가상 영역을 매핑하기 위한 인식 수단이 구비될 수 있다. 인식 수단은 본체(2000) 외주면에 구비되는 인식 마크를 포함할 수 있다. 인식 마크는 본체(2000) 외주면에 선택적으로 착탈 가능하도록 구비될 수 있다. 인식 수단은 상기 본체에 복수 개소에 구비될 수 있다. 위치 기반 서비스는, 원격 제어 장치의 디스플레이부에 표시되는 공항용 청소 로봇과 공항용 청소 로봇의 주변 영상 정보에 대한 터치 입력을 통하여 수행될 수 있다. 위치 기반 서비스는, 로봇 청소기의 이동 경로 설정 기능, 청소 영역 지정 기능, 청소 금지 영역 지정, 그리고 사용자 위치로 접근 설정 기능 중 적어도 어느 하나를 포함할 수 있다.An airport cleaning robot according to another embodiment of the present invention may include a main body 2000 that forms the exterior, a driving unit 2020 that moves and cleans, and a communication unit 2040 that transmits and receives data with a remote control device. there is. In order to provide location-based services for the airport cleaning robot through a remote control device, the main body 2000 maps the actual area where the airport cleaning robot is located and the virtual area displayed on the display unit of the remote control device. A means of recognition may be provided. The recognition means may include a recognition mark provided on the outer peripheral surface of the main body 2000. The recognition mark may be provided on the outer peripheral surface of the main body 2000 to be selectively removable. Recognition means may be provided at multiple locations in the main body. Location-based services can be performed through touch input on the airport cleaning robot and surrounding image information of the airport cleaning robot displayed on the display unit of the remote control device. The location-based service may include at least one of a function for setting a movement path of the robot cleaner, a function for specifying a cleaning area, a function for specifying a no-cleaning area, and a function for setting access to a user's location.

본 발명의 일 실시예에 의한 처리 시스템에 의해 실행하기 위한 컴퓨터-실행가능 명령들을 포함하는 컴퓨터-판독가능 저장 매체로서, 공항용 청소 로봇을 제어하기 위한 상기 컴퓨터-실행가능 명령들은, 청소 대상물을 스캔하는 명령들, 상기 청소 대상물의 타입을 결정하는 명령들, 상기 청소 대상물의 타입에 대응하는 청소 로봇의 타입을 결정하는 명령들 및 상기 결정된 청소 로봇의 타입에 매칭되는 청소 로봇들 중에서, 상기 청소 대상물의 위치에서 가장 가까운 청소 로봇을 호출하는 명령들을 포함할 수 있다. 상기 컴퓨터-실행가능 명령들은, 상기 호출된 청소 로봇에게 상기 청소 대상물의 청소를 지시하는 메시지를 전송하는 명령들을 포함할 수 있다.A computer-readable storage medium containing computer-executable instructions for execution by a processing system according to an embodiment of the present invention, wherein the computer-executable instructions for controlling an airport cleaning robot include: Among commands to scan, commands to determine the type of the cleaning object, commands to determine the type of cleaning robot corresponding to the type of the cleaning object, and cleaning robots matching the determined type of the cleaning robot, the cleaning It may include commands that call the cleaning robot closest to the location of the object. The computer-executable instructions may include instructions for transmitting a message instructing the called cleaning robot to clean the cleaning object.

본 발명의 다른 일 실시예에 의한 처리 시스템에 의해 실행하기 위한 컴퓨터-실행가능 명령들을 포함하는 컴퓨터-판독가능 저장 매체로서, 공항용 청소 로봇을 제어하기 위한 상기 컴퓨터-실행가능 명령들은, 서버로부터 청소 요청 메시지를 수신하는 명령들, 상기 청소 요청 메시지에 포함된 청소 대상물의 위치를 결정하는 명령들 및 상기 청소 대상물의 위치에서 가장 가까운 청소 로봇에게 상기 청소 요청 메시지를 전달하는 명령들을 포함할 수 있다. 청소 요청 메시지는, 공항 청소 애플리케이션 또는 MMS(Multimedia messaging service) 메시지를 통해 서버로 전송될 수 있다.A computer-readable storage medium containing computer-executable instructions for execution by a processing system according to another embodiment of the present invention, wherein the computer-executable instructions for controlling an airport cleaning robot are transmitted from a server. It may include commands for receiving a cleaning request message, commands for determining the location of the cleaning object included in the cleaning request message, and commands for transmitting the cleaning request message to the cleaning robot closest to the location of the cleaning object. . The cleaning request message may be transmitted to the server through an airport cleaning application or MMS (Multimedia messaging service) message.

전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 공항용 로봇의 AP(150)를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다The above-described present invention can be implemented as computer-readable code on a program-recorded medium. Computer-readable media includes all types of recording devices that store data that can be read by a computer system. Examples of computer-readable media include HDD (Hard Disk Drive), SSD (Solid State Disk), SDD (Silicon Disk Drive), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. It also includes those implemented in the form of carrier waves (e.g., transmission via the Internet). Additionally, the computer may include the AP 150 of the airport robot. Accordingly, the above detailed description should not be construed as restrictive in all respects and should be considered illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

Claims (20)

공항용 청소 로봇에 있어서,
데이터를 송수신하는 통신부;
위치 정보를 리드하는 위치 인식부;
청소 및 이동을 수행하는 구동부;
사물의 외관을 촬영하는 카메라; 및
상기 공항용 청소 로봇의 동작을 제어하는 제어부를 포함하고,
상기 통신부를 통해 수신된 청소 요청 메시지를 수신하면,
상기 제어부는,
상기 청소 요청 메시지에 포함된 위치 정보를 리드하여 청소 장소로 이동하고,
상기 청소 요청 메시지에 포함된 제1 청소 대상물 정보를 리드하고,
상기 청소 장소에서 상기 카메라를 통해 청소 대상물을 스캔하고,
스캔된 청소 대상물의 이미지로부터 제2 청소 대상물 정보를 리드하고,
상기 청소 요청 메시지로부터 리드한 상기 제1 청소 대상물 정보 및 상기 제2 청소 대상물 정보가 일치하는지를 판단하고 상기 제1 청소 대상물 정보 및 상기 제2 청소 대상물 정보가 일치하는 경우, 상기 청소 대상물을 청소하도록 제어하고,
상기 제1 청소 대상물 정보 및 상기 제2 청소 대상물 정보 각각은 대상물 크기, 대상물의 외관 이미지, 대상물의 주변 이미지 정보를 포함하고,
상기 제어부는
상기 제1 청소 대상물 정보 및 상기 제2 청소 대상물 정보 각각에 포함된 대상물 크기, 대상물의 외관 이미지 및 대상물의 주변 이미지 정보가 서로 일치하는 경우, 상기 청소 대상물을 청소하도록 제어하는
공항용 청소 로봇.
In the airport cleaning robot,
A communication unit that transmits and receives data;
A location recognition unit that reads location information;
A driving unit that performs cleaning and movement;
A camera that captures the exterior of an object; and
It includes a control unit that controls the operation of the airport cleaning robot,
Upon receiving a cleaning request message received through the communication unit,
The control unit,
Move to the cleaning location by reading the location information included in the cleaning request message,
Read the first cleaning object information included in the cleaning request message,
Scanning a cleaning object through the camera at the cleaning location,
Reading second cleaning object information from the image of the scanned cleaning object,
Determine whether the first cleaning object information and the second cleaning object information read from the cleaning request message match, and if the first cleaning object information and the second cleaning object information match, control to clean the cleaning object. do,
Each of the first cleaning object information and the second cleaning object information includes object size, an external image of the object, and surrounding image information of the object,
The control unit
When the object size, external image of the object, and surrounding image information of the object included in each of the first cleaning object information and the second cleaning object information match each other, controlling to clean the cleaning object.
Airport cleaning robot.
삭제delete 제1 항에 있어서,
상기 청소 요청 메시지는 공항에 배치된 관리 로봇으로부터 수신되는,
공항용 청소 로봇.
According to claim 1,
The cleaning request message is received from a management robot deployed at the airport,
Airport cleaning robot.
제1 항에 있어서,
상기 청소 요청 메시지는 공항 청소 관리 서버로부터 수신되는,
공항용 청소 로봇.
According to claim 1,
The cleaning request message is received from the airport cleaning management server,
Airport cleaning robot.
제1 항에 있어서,
상기 청소 요청 메시지는 공항 청소 애플리케이션으로부터 수신되는,
공항용 청소 로봇.
According to claim 1,
The cleaning request message is received from the airport cleaning application,
Airport cleaning robot.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020160130734A 2016-10-10 2016-10-10 Cleaning robot for airport and method thereof KR102613624B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160130734A KR102613624B1 (en) 2016-10-10 2016-10-10 Cleaning robot for airport and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160130734A KR102613624B1 (en) 2016-10-10 2016-10-10 Cleaning robot for airport and method thereof

Publications (2)

Publication Number Publication Date
KR20180039437A KR20180039437A (en) 2018-04-18
KR102613624B1 true KR102613624B1 (en) 2023-12-15

Family

ID=62082730

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160130734A KR102613624B1 (en) 2016-10-10 2016-10-10 Cleaning robot for airport and method thereof

Country Status (1)

Country Link
KR (1) KR102613624B1 (en)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11169539B2 (en) 2018-05-04 2021-11-09 Lg Electronics Inc. Plurality of autonomous mobile robots and controlling method for the same
US20190339690A1 (en) * 2018-05-04 2019-11-07 Lg Electronics Inc. Plurality of autonomous mobile robots and controlling method for the same
US11435759B2 (en) 2018-05-04 2022-09-06 Lg Electronics Inc. Plurality of autonomous mobile robots and controlling method for the same
KR102067604B1 (en) * 2018-05-04 2020-01-17 엘지전자 주식회사 A plurality of autonomous mobile robots and a controlling method for the same
KR102100477B1 (en) * 2018-05-04 2020-04-13 엘지전자 주식회사 A plurality of autonomous mobile robots and a controlling method for the same
US11137773B2 (en) 2018-05-04 2021-10-05 Lg Electronics Inc. Plurality of autonomous mobile robots and controlling method for the same
KR102096564B1 (en) * 2018-06-25 2020-04-02 엘지전자 주식회사 A plurality of autonomous cleaner and a controlling method for the same
US11320804B2 (en) 2019-04-22 2022-05-03 Lg Electronics Inc. Multi information provider system of guidance robot and method thereof
CN110103224A (en) * 2019-05-30 2019-08-09 华东理工大学 A kind of harbour security protection crusing robot and control system
KR20190087355A (en) 2019-07-05 2019-07-24 엘지전자 주식회사 Method for driving cleaning robot and cleaning robot which drives using regional human activity data
KR102179057B1 (en) * 2020-03-27 2020-11-16 엘지전자 주식회사 A plurality of autonomous cleaner and a controlling method for the same
US11954634B2 (en) 2020-03-31 2024-04-09 Woowa Brothers Co., Ltd. Method and system for managing delivery item in absence of recipient
KR102137096B1 (en) * 2020-04-03 2020-07-24 하천용 Centralized base-type automatic garbage transfer collection system using autonomous driving robot equipped with safety and crime prevention functions on the move
CN111942380B (en) * 2020-08-18 2021-10-26 安徽锦富清洁有限公司 Airport runway sweeper capable of identifying airport runway line
KR102390127B1 (en) * 2020-08-27 2022-04-25 네이버랩스 주식회사 Evaluation method and system for robot
CN117381803B (en) * 2023-12-13 2024-02-13 深圳市辉熙智能科技有限公司 Automatic cleaning method of cleaning robot and cleaning robot

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9776332B2 (en) * 2011-12-08 2017-10-03 Lg Electronics Inc. Automatic moving apparatus and manual operation method thereof
KR101893152B1 (en) * 2012-10-26 2018-08-31 엘지전자 주식회사 robot cleaner system and a control method of the same
KR102314637B1 (en) * 2015-03-23 2021-10-18 엘지전자 주식회사 Robot cleaner, and robot cleaning system

Also Published As

Publication number Publication date
KR20180039437A (en) 2018-04-18

Similar Documents

Publication Publication Date Title
KR102613624B1 (en) Cleaning robot for airport and method thereof
KR102631147B1 (en) Robot for airport and method thereof
CN109195752B (en) Modular type domestic robot
KR102526083B1 (en) Mobile terminal and operating method thereof
US10667659B2 (en) Robot cleaner, method of operating the same, and augmented reality system
KR102600269B1 (en) Cleaning robot for airport and method thereof
KR102544737B1 (en) Robot cleaner and a system inlduing the same
KR102479495B1 (en) Mobile terminal and method for operating thereof
KR102573021B1 (en) Airport robot, recording medium recording program performing method of providing service thereof, and mobile terminal connecting same
KR101680667B1 (en) Mobile device and method for controlling the mobile device
KR102526082B1 (en) Mobile terminal and recording medium recording program for performing operation method of mobile terminal
KR102529110B1 (en) Mobile terminal for performing method of displaying dishwashers condition of home appliances and recording medium recording program performing same
KR102494832B1 (en) Mobile terminal for performing method of displaying ice condition of home appliances and recording medium recording program performing same
KR102401641B1 (en) Mobile device and method for controlling the mobile device
KR20180040977A (en) Mobile terminal for performing method of displaying filter status of air cleaner and recording medium recording program performing same
KR20170071278A (en) Mobile terminal
KR102524266B1 (en) Mobile terminal and operating method thereof
KR102249500B1 (en) Home gateway and operating method thereof
KR20180038885A (en) Robot for airport and method thereof
KR20180038869A (en) Robot for airport and method thereof
KR101556179B1 (en) Mobile device and method for controlling the mobile device
KR102249980B1 (en) Control apparatus for electronic device using non-vocal audio information and control method thereof
KR20150146149A (en) Mobile terminal
KR20180047712A (en) Sensor device, and sensing system including same
KR20170054173A (en) Mobile terminal and method for operating thereof

Legal Events

Date Code Title Description
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant