KR20170115188A - Transport Robot For Industry Place - Google Patents

Transport Robot For Industry Place Download PDF

Info

Publication number
KR20170115188A
KR20170115188A KR1020160041895A KR20160041895A KR20170115188A KR 20170115188 A KR20170115188 A KR 20170115188A KR 1020160041895 A KR1020160041895 A KR 1020160041895A KR 20160041895 A KR20160041895 A KR 20160041895A KR 20170115188 A KR20170115188 A KR 20170115188A
Authority
KR
South Korea
Prior art keywords
user
robot
signal
distance
module
Prior art date
Application number
KR1020160041895A
Other languages
Korean (ko)
Inventor
최진규
천민솔
장석준
송명관
김민훈
Original Assignee
한남대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한남대학교 산학협력단 filed Critical 한남대학교 산학협력단
Priority to KR1020160041895A priority Critical patent/KR20170115188A/en
Publication of KR20170115188A publication Critical patent/KR20170115188A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 산업 현장 운반 로봇에 관한 것으로, 사용자 기기로부터 수신한 신호 세기 값을 이용하여 사용자와의 이격 거리를 산출하여 사용자와 일정거리를 유지하면서 사용자를 추적함과 동시에 초음파 센서를 이용하여 주변 객체와의 충돌을 미리 예방할 수 있는 산업 현장 운반 로봇에 관한 것이다. 본 발명의 일 양상인 사용자 기기와 통신하는 산업 현장 운반 로봇을 제어하는 방법에 있어서, 상기 사용자 기기로부터 신호를 수신하는 단계; 상기 수신한 신호의 세기 값을 산출하는 단계; 상기 신호의 세기 값을 이용하여 상기 사용자와의 이격거리를 산출하는 단계; 기 설정된 이격거리와 상기 산출된 거리를 비교하는 단계; 상기 비교 결과를 이용하여 상기 사용자와 상기 기 설정된 이격거리 이내로 떨어진 상태를 유지하는 단계; 초음파 센서를 이용하여 초음파를 외부로 송출하는 단계; 상기 송출한 초음파의 피드백을 이용하여 주변 객체가 존재하는지 여부를 판단하는 단계; 및 상기 주변 객체가 존재하는 경우, 이동을 중단하는 단계;를 포함할 수 있다.The present invention relates to an industrial field carrying robot, which uses a signal intensity value received from a user equipment to calculate a distance from a user, tracks a user while maintaining a certain distance from a user, Which can prevent collision with an industrial field. A method of controlling an industrial field-carrying robot communicating with a user device, the method comprising: receiving a signal from the user device; Calculating an intensity value of the received signal; Calculating a separation distance from the user using the intensity value of the signal; Comparing the calculated distance with the calculated distance; Maintaining a state in which the user is away from the predetermined distance by using the comparison result; Transmitting ultrasound to the outside using an ultrasonic sensor; Determining whether a surrounding object is present using the feedback of the transmitted ultrasonic wave; And stopping the movement if the neighboring object exists.

Description

산업 현장 운반 로봇 {Transport Robot For Industry Place}BACKGROUND ART [0002] Transport robot for industry place [0003]

본 발명은 산업 현장 운반 로봇에 관한 것으로, 사용자 기기로부터 수신한 신호 세기 값을 이용하여 사용자와의 이격 거리를 산출하여 사용자와 일정거리를 유지하면서 사용자를 추적함과 동시에 초음파 센서를 이용하여 주변 객체와의 충돌을 미리 예방할 수 있는 산업 현장 운반 로봇에 관한 것이다.The present invention relates to an industrial field carrying robot, which uses a signal intensity value received from a user equipment to calculate a distance from a user, tracks a user while maintaining a certain distance from a user, Which can prevent collision with an industrial field.

이동 로봇(mobile robot)은 로봇 암(robot arm)과는 달리 한 장소에 고정되어 설치되지 않고, 바퀴 또는 로봇다리로 구동되어 비교적 자유롭게 이동할 수 있는 로봇이다. Unlike a robot arm, a mobile robot is not fixedly installed at one place, but is a robot that can be relatively freely moved by being driven by a wheel or a robot leg.

이동 로봇은 산업현장에서 제품을 옮기거나 조립하는 작업을 수행하기도 하고, 가정에서는 청소나 물건을 옮기기도 한다.Mobile robots carry out the work of moving and assembling products in the industrial field, and they also carry out cleaning or moving objects at home.

이처럼, 산업분야 또는 가정에서 이동 로봇을 활용하기 위해서는 이동 로봇이 자신의 위치와 방향을 정확하게 인식하는 것이 무엇보다 중요하다.Thus, in order to utilize a mobile robot in an industrial field or a home, it is most important that the mobile robot correctly recognize its position and direction.

이동 로봇의 자기위치 인식기술은 엔코더와 같은 주행거리계 및 초음파 센서와 레이저 등을 이용한 거리측정 장치와 같은 거리계측, 장애물 검출이 가능한 장치 등을 이용하여 이동 로봇의 상대적인 자기위치를 인식하는 기술과, 영상처리장치를 이용하여 실내의 소정의 위치에 부착된 인공 표식이나 자연사물의 위치를 검출함으로써 이동 로봇의 절대적인 위치를 인식하는 기술로 구분된다.The self-position recognition technology of the mobile robot includes a technique of recognizing the relative position of the mobile robot using an odometer such as an encoder, a distance measuring device such as an ultrasonic sensor and a laser, A technique of recognizing an absolute position of a mobile robot by detecting the position of an artificial marker or a natural object attached to a predetermined position in a room using an image processing apparatus.

상기 상대적인 자기위치 인식기술의 특징은 이동 로봇이 주행하여야 할 환경정보가 미리 주어져 있지 않더라도 이동 로봇에 장착된 초음파 센서나 레이저를 이용한 거리측정 장치, 엔코더 등을 이용하여 외부장치의 도움 없이도 이동 로봇 스스로 환경지도의 작성을 통해서 자율주행이 가능한 장점이 있는 반면에, 주행거리계인 엔코더의 경우 주행시간이 증가함으로써 슬립 현상 등에 의해 위치오차가 누적될 수 있으며, 특히 이러한 위치오차는 충돌이나 회피동작시에 더욱 심화된다. 또한 사람에 의해 인위적으로 이동 로봇의 위치가 변화될 경우 자기위치를 인식하지 못하게 되는 경우도 발생한다.The relative position recognition technology is characterized in that even if environmental information to be traveled by the mobile robot is not given in advance, it is possible to use a distance measuring device or an encoder using an ultrasonic sensor or a laser mounted on the mobile robot, In the case of an encoder, which is an odometer, the position error can be accumulated due to the slip phenomenon due to an increase in travel time. In particular, such a position error is caused by a collision or avoidance operation . Also, when the position of the mobile robot is artificially changed by a person, the self position may not be recognized.

이에 대하여 이동 로봇의 절대적인 위치를 인식하는 기술은 로봇이 자기 위치 인식을 위한 수단으로 인공 표식을 사용한다. On the other hand, in the technique of recognizing the absolute position of the mobile robot, the robot uses artificial landmarks as a means for recognizing its own position.

인공 표식은 배경과 구분되는 특정 표식으로서, 실내공간 내에 부착한 상태에서 로봇의 카메라로 인공 표식에 대해 촬영을 수행하여 획득된 영상신호를 처리하여 인공 표식을 인지함으로써, 로봇의 현재 위치를 파악하는 것이다. An artificial landmark is a specific landmark that is distinguished from the background. The artificial landmark is photographed with a camera of the robot in the state of being attached to the interior space, and the image signal obtained by processing the image signal is recognized to recognize the artificial landmark. will be.

로봇의 위치는 인식된 인공 표식의 영상좌표와 해당 인공 표식에 대해 미리 저장된 실내공간 상의 좌표정보를 참조하여 구현된다.The position of the robot is implemented by referring to the coordinates of the image of the recognized artificial landmark and the coordinate information on the interior space previously stored for the artificial landmark.

인공 표식에는 통상적으로 원, 사각형 등의 기하학적인 특정 패턴이 사용되는데, 로봇의 정확한 위치 파악을 위해서는 이러한 특정 패턴의 영상 처리 과정이 선행되어야 한다. 그러나, 카메라를 통해 들어오는 실내공간에 대한 영상신호는 조명이나 카메라와의 거리, 방향 등에 의해 많은 영향을 받기 때문에 일반적인 실내환경에서 안정적인 인식 성능을 내기 어렵다는 문제가 있다.A geometric specific pattern such as a circle or a rectangle is usually used for artificial landmarks. In order to accurately locate the robot, the image processing process of this specific pattern must be preceded. However, there is a problem that it is difficult to obtain a stable recognition performance in a general indoor environment because a video signal for an indoor space entering through a camera is greatly influenced by a distance, a direction, and the like from a lighting or a camera.

따라서 별도의 인공 표식 없이 변화되는 사용자 위치에 대응하여 사용자를 추적하면서, 다른 객체와의 충돌을 예방할 수 있는 로봇이 요구되고 있는 실정이다.Therefore, there is a need for a robot that can prevent a collision with other objects while tracking a user corresponding to a changed user position without a separate artificial marker.

대한민국 특허청 등록번호 제 10-0811885 호Korean Intellectual Property Office Registration No. 10-0811885

본 발명은 사용자 기기로부터 수신한 신호 세기 값을 이용하여 사용자와의 이격 거리를 산출하여 사용자와 일정거리를 유지하면서 사용자를 추적함과 동시에 초음파 센서를 이용하여 주변 객체와의 충돌을 미리 예방할 수 있는 산업 현장 운반 로봇을 제안하고자 한다.The present invention calculates a distance from a user by using a signal intensity value received from a user equipment, tracks a user while maintaining a certain distance from the user, and can prevent a user from colliding with nearby objects using an ultrasonic sensor We propose an industrial field transportation robot.

본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are not restrictive of the invention, unless further departing from the spirit and scope of the invention as defined by the appended claims. It will be possible.

상기의 기술적 과제를 달성하기 위한 본 발명의 일 양상인 사용자 기기와 통신하는 산업 현장 운반 로봇을 제어하는 방법에 있어서, 상기 사용자 기기로부터 신호를 수신하는 단계; 상기 수신한 신호의 세기 값을 산출하는 단계; 상기 신호의 세기 값을 이용하여 상기 사용자와의 이격거리를 산출하는 단계; 기 설정된 이격거리와 상기 산출된 거리를 비교하는 단계; 상기 비교 결과를 이용하여 상기 사용자와 상기 기 설정된 이격거리 이내로 떨어진 상태를 유지하는 단계; 초음파 센서를 이용하여 초음파를 외부로 송출하는 단계; 상기 송출한 초음파의 피드백을 이용하여 주변 객체가 존재하는지 여부를 판단하는 단계; 및 상기 주변 객체가 존재하는 경우, 이동을 중단하는 단계;를 포함할 수 있다.According to an aspect of the present invention, there is provided a method of controlling an industrial field carrying robot communicating with a user equipment, the method comprising: receiving a signal from the user equipment; Calculating an intensity value of the received signal; Calculating a separation distance from the user using the intensity value of the signal; Comparing the calculated distance with the calculated distance; Maintaining a state in which the user is away from the predetermined distance by using the comparison result; Transmitting ultrasound to the outside using an ultrasonic sensor; Determining whether a surrounding object is present using the feedback of the transmitted ultrasonic wave; And stopping the movement if the neighboring object exists.

또한, 상기 신호의 세기 값은 신호강도 지표(Signal Strength Indicator) 일 수 있다.Also, the intensity value of the signal may be a signal strength indicator.

또한, 상기 사용자 기기와 상기 산업 현장 운반 로봇은 근거리 통신 및 원거리 통신 중 적어도 하나가 이용하여 통신하고, 상기 근거리 통신은 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee, Wi-Fi (Wireless Fidelity) 기술을 포함하며, 상기 원거리 통신은 CDMA(code division multiple access), FDMA(frequency division multiple access), TDMA(time division multiple access), OFDMA(orthogonal frequency division multiple access), SC-FDMA(single carrier frequency division multiple access) 기술을 포함할 수 있다.In addition, the user equipment and the industrial site carrying robot communicate using at least one of short-distance communication and long-distance communication, and the short-range communication is performed using Bluetooth, Radio Frequency Identification (RFID) ), UWB (Ultra Wideband), ZigBee, and Wi-Fi (Wireless Fidelity) technologies. The long distance communication includes code division multiple access (CDMA), frequency division multiple access (FDMA), time division multiple access (TDMA) Orthogonal frequency division multiple access (OFDMA), and single carrier frequency division multiple access (SC-FDMA) techniques.

본 발명은 사용자 기기로부터 수신한 신호 세기 값을 이용하여 사용자와의 이격 거리를 산출하여 사용자와 일정거리를 유지하면서 사용자를 추적함과 동시에 초음파 센서를 이용하여 주변 객체와의 충돌을 미리 예방할 수 있는 산업 현장 운반 로봇을 제공할 수 있다.The present invention calculates a distance from a user by using a signal intensity value received from a user equipment, tracks a user while maintaining a certain distance from the user, and can prevent a user from colliding with nearby objects using an ultrasonic sensor An industrial field transportation robot can be provided.

다만, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.It should be understood, however, that the effects obtained by the present invention are not limited to the above-mentioned effects, and other effects not mentioned may be clearly understood by those skilled in the art from the following description It will be possible.

도 1은 본 발명이 제안하는 로봇 또는 사용자가 소지한 기기를 설명하기 위한 블록 구성도이다.
도 2는 본 발명이 제안하는 로봇에 적용되는 수신부 및 제어부의 구체적일 일례를 도시한 것이다.
도 3a 및 도 3b는 본 발명이 제안하는 로봇에 적용되는 송신부의 구체적인 일례를 도시한 것이다.
도 4는 본 발명이 제안하는 로봇을 이용하여 사용자를 추적함과 동시에 주변 객체와의 충돌을 미리 예방할 수 있는 방법을 설명하기 위한 순서도이다.
BRIEF DESCRIPTION OF THE DRAWINGS Fig. 1 is a block diagram for explaining a robot proposed by the present invention or a device carried by a user.
FIG. 2 shows a specific example of a receiving unit and a control unit applied to the robot proposed by the present invention.
3A and 3B illustrate a concrete example of a transmitter applied to a robot proposed by the present invention.
FIG. 4 is a flowchart illustrating a method of tracking a user using a robot proposed by the present invention and preventing a collision with neighboring objects in advance.

다른 이동 로봇의 움직임을 고려하지 않고 각자 최단 거리를 계산하여 주행하게 되면, 이동 로봇 간에 충돌이 발생할 가능성이 있다.There is a possibility that a collision occurs between the mobile robots if the shortest distance is calculated and traveled without considering the motion of the other mobile robots.

이와 같은 경우, 이동 로봇이 계산된 경로 경로를 따라 주행하는 도중 다른 이동 로봇과의 충돌을 회피하기 위해 정지하게 되면, 작업 효율이 저하되거나 여러 대의 이동 로봇이 자칫 교착 상황(Dead lock)에 빠져 작업 목적을 달성하지 못할 경우가 발상하게 된다.In such a case, if the mobile robot is stopped to avoid collision with other mobile robots while traveling along the calculated path path, the operation efficiency may be lowered, or a plurality of mobile robots may fall into a deadlock state If you can not achieve the goal, it will come up.

다개체 로봇 시스템에서 충돌이 회피할 수 있는 개별적인 이동 로봇의 경로를 생성하는 방법은 크게 두 가지로 분류되고 있다. There are two main ways to generate paths for individual mobile robots that can avoid collisions in multi-robot systems.

첫 번째는 중앙화된 방법(Centralized method)이고, 다른 하나는 분산화된 방법(Decoupled method)이다.The first is the centralized method and the other is the decoupled method.

중앙화된 방법은 한번의 사이클에서 모든 이동 로봇의 경로를 동시에 생성하며, 각각의 이동 로봇의 경로를 생성할 때 다른 모든 이동 로봇의 모든 경우의 수를 고려하여 경로를 생성하게 된다. The centralized method simultaneously generates the paths of all the mobile robots in one cycle. When generating the path of each mobile robot, the path is generated considering the number of all the other mobile robots.

그러나, 중앙화된 방법은 최적의 경로를 생성할 수 있는 장점을 제공하고 있으나, 이동 로봇의 숫자가 많아질수록 계산량이 지수적으로 증가하여 많은 수의 이동 로봇이 적용되는 경우 적합하지 않은 단점이 있다.However, the centralized method provides an advantage of generating an optimum path, but the computational complexity increases exponentially as the number of mobile robots increases, which is disadvantageous when a large number of mobile robots are applied .

또한, 중앙화된 방법은 사전에 모든 이동 로봇의 경로를 고려하여 최적 경로를 생성했다 하더라도, 실제 주행도In addition, even if the centralized method generates the optimal route considering all the paths of the mobile robots in advance,

중 장애물이나 작업의 지연에 의해 이동 로봇의 경로주행시간이 사전 예상과 달라지면 수시로 모든 이동 로봇의 경로를 재생성해야 하며, 이럴 경우 앞서 말한 계산의 복잡성이 주행 중에도 발생하게 되어, 전체 시스템의 성능을 저하시키는 원인으로 작용하게 된다.If the path travel time of the mobile robot is different from the expected one due to the delay of the obstacle or the work, it is necessary to regenerate the path of all the mobile robots from time to time. In this case, the complexity of the calculation mentioned above occurs during traveling, .

한편, 분산화된 방법은 각각의 이동 로봇의 경로를 개별적으로 생성한 후 이동 로봇 간의 충돌이 일어나는 상황을 감지한 후 충돌이 일어나는 경로를 변형시키거나 속도를 제어하여 충돌을 회피하는 방식이다. On the other hand, the decentralized method is a method for avoiding collision by individually generating paths of respective mobile robots, detecting a situation in which collision occurs between the mobile robots, and then modifying the collision path or controlling the speed.

분산화된 방법은 개별 계산량이 낮은 장점이 있으나 경로의 최적성은 보장하기 어려운 문제점이 있다.The distributed method has the advantage of low individual computation amount, but it is difficult to guarantee the optimum path.

일 예로, 한국등록특허 제10-0670565호에 개시된 기술은 분산화된 방법의 하나로, 충돌이 일어나는 영역을 계산하여 우선 순위에 따라 속도 프로파일을 조절하여 충돌을 회피하는 기법을 제안하고 있다. 그러나, 상기 한국등록특허에 개시된 방법은 고정된 경로에서 이동 로봇의 속도만을 조절하여 충돌을 회피하기 때문에 이동 로봇들이 교착 상태에 빠질 가능성이 있다. 예를 들어, 두 대의 이동 로봇이 서로 마주보고 자리를 바꾸는 경우, 상기 방법으로는 충돌을 회피할 방법을 제시하지 못하게 된다.For example, the technique disclosed in Korean Patent No. 10-0670565 is a decentralized method, in which a region where a collision occurs is calculated and a speed profile is adjusted according to a priority to avoid a collision. However, the method disclosed in the above-mentioned Korean Patents has a possibility that the mobile robots are put into a deadlock state because they only avoid the collision by adjusting the speed of the mobile robot in a fixed path. For example, when two mobile robots face each other and change their positions, the above method does not provide a method of avoiding collision.

따라서 본 명세서에서는 사용자 기기로부터 수신한 신호 세기 값을 이용하여 사용자와의 이격 거리를 산출하여 사용자와 일정거리를 유지하면서 사용자를 추적함과 동시에 초음파 센서를 이용하여 주변 객체와의 충돌을 미리 예방할 수 있는 산업 현장 운반 로봇을 제안하고자 한다.Accordingly, in the present specification, a distance from the user is calculated using the signal intensity value received from the user equipment, and the user is tracked while maintaining a certain distance from the user, and at the same time, collision with neighboring objects can be prevented using the ultrasonic sensor We propose an industrial field transportation robot.

기본적으로 본 발명이 제안하는 로봇이 적용되기 위해서는 사용자가 소지하여 로봇과 통신하기 위한 장비와 이동 로봇이 필요하다.Basically, in order for the robot proposed by the present invention to be applied, a device and a mobile robot for carrying the robot with the user are necessary.

구체적인 본 발명의 설명에 앞서, 도 1을 참조하여 사용자가 소지하여 로봇과 통신하기 위한 장비와 이동 로봇에 대해 설명한다.Prior to the description of the present invention, the apparatus and the mobile robot for carrying a user with the robot and communicating with the robot will be described with reference to FIG.

도 1은 본 발명이 제안하는 로봇 또는 사용자가 소지한 기기를 설명하기 위한 블록 구성도이다.BRIEF DESCRIPTION OF THE DRAWINGS Fig. 1 is a block diagram for explaining a robot proposed by the present invention or a device carried by a user.

도 1을 참조하면, 로봇 또는 기기(100)는 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 메모리(160), 인터페이스부(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 1, the robot or device 100 includes a wireless communication unit 110, an A / V input unit 120, a user input unit 130, a sensing unit 140, an output unit 150, A memory 160, an interface unit 170, a control unit 180, a power supply unit 190, and the like.

단, 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 로봇 또는 기기가 구현될 수도 있다.However, the components shown in Fig. 1 are not essential, so that a robot or a device having more or fewer components may be implemented.

이하, 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in order.

무선 통신부(110)는 로봇 또는 기기와 무선 통신 시스템 사이 또는 기기와 기기가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. The wireless communication unit 110 may include one or more modules that enable wireless communication between a robot or a device and a wireless communication system or between a device and a network in which the device is located.

예를 들어, 무선 통신부(110)는 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114) 및 위치정보 모듈(115) 등을 포함할 수 있다.For example, the wireless communication unit 110 may include a broadcast receiving module 111, a mobile communication module 112, a wireless Internet module 113, a short range communication module 114, and a location information module 115 .

방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. The broadcast receiving module 111 receives broadcast signals and / or broadcast-related information from an external broadcast management server through a broadcast channel.

상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 로봇 또는 기기에 송신하는 서버를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다. The broadcast channel may include a satellite channel and a terrestrial channel. The broadcast management server may be a server for generating and transmitting broadcast signals and / or broadcast-related information, or a server for receiving broadcast signals and / or broadcast-related information generated in advance and transmitting the broadcast signals and / or broadcast-related information to a robot or a device. The broadcast signal may include a TV broadcast signal, a radio broadcast signal, a data broadcast signal, and a broadcast signal in which a data broadcast signal is combined with a TV broadcast signal or a radio broadcast signal.

상기 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 상기 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있다. 이러한 경우에는 상기 이동통신 모듈(112)에 의해 수신될 수 있다.The broadcast-related information may refer to a broadcast channel, a broadcast program, or information related to a broadcast service provider. The broadcast-related information may also be provided through a mobile communication network. In this case, it may be received by the mobile communication module 112.

상기 방송 관련 정보는 다양한 형태로 존재할 수 있다. 예를 들어, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVB-H(Digital Video Broadcast-Handheld)의 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.The broadcast-related information may exist in various forms. For example, an EPG (Electronic Program Guide) of DMB (Digital Multimedia Broadcasting) or an ESG (Electronic Service Guide) of Digital Video Broadcast-Handheld (DVB-H).

상기 방송 수신 모듈(111)은, 예를 들어, DMB-T(Digital Multimedia Broadcasting-Terrestrial), DMB-S(Digital Multimedia Broadcasting-Satellite), MediaFLO(Media Forward Link Only), DVB-H(Digital Video Broadcast-Handheld), ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등의 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 물론, 상기 방송 수신 모듈(111)은, 상술한 디지털 방송 시스템뿐만 아니라 다른 방송 시스템에 적합하도록 구성될 수도 있다.For example, the broadcast receiving module 111 may be a Digital Multimedia Broadcasting-Terrestrial (DMB-T), a Digital Multimedia Broadcasting-Satellite (DMB-S), a Media Forward Link Only And a Digital Broadcasting System (ISDB-T) (Integrated Services Digital Broadcast-Terrestrial). Of course, the broadcast receiving module 111 may be adapted to other broadcasting systems as well as the digital broadcasting system described above.

방송 수신 모듈(111)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리(160)에 저장될 수 있다.The broadcast signal and / or broadcast related information received through the broadcast receiving module 111 may be stored in the memory 160.

이동통신 모듈(112)은, 이동 통신망 상에서 기지국, 외부의 기기, 서버 중 적어도 하나와 무선 신호를 송수신한다. The mobile communication module 112 transmits and receives a radio signal to at least one of a base station, an external device, and a server on a mobile communication network.

문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. And various types of data according to transmission / reception of text / multimedia messages.

무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 로봇 또는 기기에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다. The wireless Internet module 113 refers to a module for wireless Internet access, and may be built in or enclosed in a robot or a device. WLAN (Wi-Fi), Wibro (Wireless broadband), Wimax (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access) and the like can be used as wireless Internet technologies.

근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee, 와이파이(Wireless Fidelity, Wi-Fi) 등이 이용될 수 있다.The short-range communication module 114 refers to a module for short-range communication. (Bluetooth), Radio Frequency Identification (RFID), infrared data association (IrDA), Ultra Wideband (UWB), ZigBee, WiFi Can be used.

위치정보 모듈(115)은 로봇 또는 기기의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Position System) 모듈이 있다.The position information module 115 is a module for acquiring the position of a robot or a device, and a representative example thereof is a global positioning system (GPS) module.

도 1을 참조하면, A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(121)와 마이크(122) 등이 포함될 수 있다. 카메라(121)는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.Referring to FIG. 1, an A / V (Audio / Video) input unit 120 is for inputting an audio signal or a video signal, and may include a camera 121 and a microphone 122. The camera 121 processes an image frame such as a still image or a moving image obtained by the image sensor in the photographing mode. The processed image frame can be displayed on the display unit 151. [

카메라(121)에서 처리된 화상 프레임은 메모리(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다. 카메라(121)는 사용 환경에 따라 2개 이상이 구비될 수도 있다.The image frame processed by the camera 121 may be stored in the memory 160 or transmitted to the outside through the wireless communication unit 110. [ Two or more cameras 121 may be provided depending on the use environment.

마이크(122)는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 이동통신 모듈(112)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(122)에는 외부의 음향 신호를 입력받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The microphone 122 receives an external sound signal by a microphone in a recording mode, a voice recognition mode, or the like, and processes it as electrical voice data. The processed voice data can be converted into a form that can be transmitted to the mobile communication base station through the mobile communication module 112 and output. Various noise reduction algorithms may be implemented in the microphone 122 to remove noise generated in receiving an external sound signal.

사용자 입력부(130)는 사용자가 로봇 또는 기기의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(130)는 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다. The user input unit 130 generates input data for controlling the operation of the robot or the user by the user. The user input unit 130 may include a key pad dome switch, a touch pad (static / static), a jog wheel, a jog switch, and the like.

센싱부(140)는 로봇 또는 기기의 개폐 상태, 로봇 또는 기기의 위치, 사용자 접촉 유무, 로봇 또는 기기의 방위, 로봇 또는 기기의 가속/감속 등과 같이 로봇 또는 기기의 현 상태를 감지하여 로봇 또는 기기의 동작을 제어하기 위한 센싱 신호를 발생시킨다. The sensing unit 140 senses the current state of the robot or the device, such as the open or closed state of the robot or the device, the position of the robot or the device, the user's contact, the orientation of the robot or the device, And generates a sensing signal for controlling the operation of the sensor.

센싱부(140)는 전원 공급부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등을 센싱할 수도 있다. The sensing unit 140 may sense whether the power supply unit 190 is powered on, whether the interface unit 170 is connected to an external device, and the like.

한편, 상기 센싱부(140)는 근접 센서(141)를 포함할 수 있다. Meanwhile, the sensing unit 140 may include a proximity sensor 141.

또한, 센싱부(140)는 초음파 센서(142)를 더 포함할 수 있다.In addition, the sensing unit 140 may further include an ultrasonic sensor 142.

초음파 센서(142)는 사람의 귀에 들리지 않을 정도로 높은 주파수(약 20 KHz 이상)의 소리인 초음파가 가지고 있는 특성을 이용한 센서를 말한다. The ultrasonic sensor 142 refers to a sensor using characteristics of an ultrasonic wave having a high frequency (about 20 KHz or more) that can not be heard by the human ear.

초음파는 공기나 액체, 고체에 사용할 수 있다. 주파수가 높고 파장이 짧기 때문에 높은 분해력을 계측할 수 있는 특징이 있다. Ultrasonic waves can be used for air, liquid, and solid. Since the frequency is high and the wavelength is short, there is a feature that high resolution can be measured.

초음파 센서(142)에 이용되는 파장은 매체의 음속과 음파의 주파수에 따라 결정되고, 바다 속의 어군탐지기나 소나에서는 1㎜~100㎜, 금속 탐상 등에서는 0.5㎜~15㎜, 기체 속에서는 5~35㎜ 정도이다. The wavelength used for the ultrasonic sensor 142 is determined according to the frequency of the sound velocity and the sound wave of the medium and is 1 mm to 100 mm for a fish finder or sonar in the sea, 0.5 mm to 15 mm for a metal probe, Mm.

초음파 센서(142)는 초음파의 발신소자와 수신소자가 동일하고, 센서 재료로는 자기변형 재료(페라이트 등)나 전압, 전기 변형재료(로셸염, 티탄산 바륨 등)가 이용되고 있다. The ultrasonic sensor 142 is the same as a transmitting element and a receiving element of ultrasonic waves, and a magnetostrictive material (ferrite or the like), a voltage, an electric deformation material (rocuronite, barium titanate, etc.) are used as a sensor material.

출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(151), 음향 출력 모듈(152), 알람부(153), 햅틱 모듈(154) 및 프로젝터 모듈(155) 등이 포함될 수 있다.The output unit 150 is for generating an output relating to visual, auditory or tactile sense and includes a display unit 151, an acoustic output module 152, an alarm unit 153, a haptic module 154, 155, and the like.

디스플레이부(151)는 로봇 또는 기기에서 처리되는 정보를 표시(출력)한다. The display unit 151 displays (outputs) information processed by the robot or the device.

디스플레이부(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. The display unit 151 may be a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), a flexible display display, and a 3D display.

이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다. 디스플레이부(151)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 로봇 또는 기기 바디의 디스플레이부(151)가 차지하는 영역을 통해 로봇 또는 기기 바디의 후방에 위치한 사물을 볼 수 있다.Some of these displays may be transparent or light transmissive so that they can be seen through. This can be referred to as a transparent display, and a typical example of the transparent display is TOLED (Transparent OLED) and the like. The rear structure of the display unit 151 may also be of a light transmission type. With this structure, the user can see the robot or the object located behind the device body through the area occupied by the robot or the display unit 151 of the device body.

로봇 또는 기기의 구현 형태에 따라 디스플레이부(151)이 2개 이상 존재할 수 있다. 예를 들어, 로봇 또는 기기에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다. There may be two or more display units 151 depending on the robot or the implementation of the device. For example, a robot or a device may have a plurality of display portions separated from each other on one surface or may be disposed integrally with each other, or may be disposed on different surfaces.

디스플레이부(151)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 디스플레이부(151)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.(Hereinafter, referred to as a 'touch screen') in which a display unit 151 and a sensor for sensing a touch operation (hereinafter, referred to as 'touch sensor') form a mutual layer structure, It can also be used as an input device. The touch sensor may have the form of, for example, a touch film, a touch sheet, a touch pad, or the like.

터치 센서는 디스플레이부(151)의 특정 부위에 가해진 압력 또는 디스플레이부(151)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. The touch sensor may be configured to convert a change in a pressure applied to a specific portion of the display unit 151 or a capacitance generated in a specific portion of the display unit 151 into an electrical input signal. The touch sensor can be configured to detect not only the position and area to be touched but also the pressure at the time of touch.

터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.If there is a touch input to the touch sensor, the corresponding signal (s) is sent to the touch controller. The touch controller processes the signal (s) and transmits the corresponding data to the controller 180. Thus, the control unit 180 can know which area of the display unit 151 is touched or the like.

상기 근접 센서(141)는 상기 터치스크린에 의해 감싸지는 로봇 또는 기기의 내부 영역 또는 상기 터치 스크린의 근처에 배치될 수 있다. 상기 근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다. The proximity sensor 141 may be disposed within a robot or a device enclosed by the touch screen or in the vicinity of the touch screen. The proximity sensor refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or a nearby object without mechanical contact using the force of an electromagnetic field or infrared rays. The proximity sensor has a longer life span than the contact sensor and its utilization is also high.

상기 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 상기 터치스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.Examples of the proximity sensor include a transmission type photoelectric sensor, a direct reflection type photoelectric sensor, a mirror reflection type photoelectric sensor, a high frequency oscillation type proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor. And to detect the proximity of the pointer by the change of the electric field along the proximity of the pointer when the touch screen is electrostatic. In this case, the touch screen (touch sensor) may be classified as a proximity sensor.

이하에서는 설명의 편의를 위해, 상기 터치스크린 상에 포인터가 접촉되지 않으면서 근접되어 상기 포인터가 상기 터치스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 칭하고, 상기 터치스크린 상에 포인터가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 칭한다. 상기 터치스크린 상에서 포인터로 근접 터치가 되는 위치라 함은, 상기 포인터가 근접 터치될 때 상기 포인터가 상기 터치스크린에 대해 수직으로 대응되는 위치를 의미한다.Hereinafter, for convenience of explanation, the act of recognizing that the pointer is positioned on the touch screen while the pointer is not in contact with the touch screen is referred to as "proximity touch & The act of actually touching the pointer on the screen is called "contact touch. &Quot; The position where the pointer is proximately touched on the touch screen means a position where the pointer is vertically corresponding to the touch screen when the pointer is touched.

상기 근접센서는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보는 터치 스크린상에 출력될 수 있다. The proximity sensor detects a proximity touch and a proximity touch pattern (e.g., a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, a proximity touch movement state, and the like). Information corresponding to the detected proximity touch operation and the proximity touch pattern may be output on the touch screen.

음향 출력 모듈(152)은 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력 모듈(152)은 로봇 또는 기기에서 수행되는 기능과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력 모듈(152)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The audio output module 152 may output audio data received from the wireless communication unit 110 or stored in the memory 160 in a recording mode, a voice recognition mode, a broadcast receiving mode, or the like. The sound output module 152 also outputs a sound signal related to a function performed by the robot or the device. The audio output module 152 may include a receiver, a speaker, a buzzer, and the like.

알람부(153)는 로봇 또는 기기의 이벤트 발생을 알리기 위한 신호를 출력한다. The alarm unit 153 outputs a signal for notifying the occurrence of an event of the robot or the device.

알람부(153)는 비디오 신호나 오디오 신호 이외에 다른 형태, 예를 들어 진동으로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. The alarm unit 153 may output a signal for notifying the occurrence of an event in a form other than the video signal or the audio signal, for example, vibration.

상기 비디오 신호나 오디오 신호는 디스플레이부(151)나 음성 출력 모듈(152)을 통해서도 출력될 수 있어서, 그들(151,152)은 알람부(153)의 일부로 분류될 수도 있다.The video signal or the audio signal may be output through the display unit 151 or the audio output module 152 so that they may be classified as a part of the alarm unit 153.

햅틱 모듈(haptic module)(154)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(154)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 있다. 햅택 모듈(154)이 발생하는 진동의 세기와 패턴 등은 제어 가능하다. The haptic module 154 generates various tactile effects that the user can feel. A typical example of the haptic effect generated by the haptic module 154 is vibration. The intensity and pattern of the vibration generated by the hit module 154 can be controlled.

예를 들어, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다. For example, different vibrations may be synthesized and output or sequentially output.

햅틱 모듈(154)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(eletrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다. In addition to the vibration, the haptic module 154 may include a pin arrangement vertically moving with respect to the contact skin surface, a spraying force or a suction force of the air through the injection port or the suction port, a touch on the skin surface, contact with an electrode, And various tactile effects such as an effect of reproducing a cold sensation using an endothermic or exothermic element can be generated.

햅틱 모듈(154)은 직접적인 접촉을 통해 촉각 효과의 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(154)은 로봇 또는 기기의 구성 태양에 따라 2개 이상이 구비될 수 있다.The haptic module 154 can be implemented not only to transmit the tactile effect through the direct contact but also to allow the user to feel the tactile effect through the muscular sensation of the finger or arm. The haptic module 154 may be equipped with two or more haptic modules according to a configuration of a robot or a device.

프로젝터 모듈(155)은, 로봇 또는 기기를 이용하여 이미지 프로젝트(project) 기능을 수행하기 위한 구성요소로서, 제어부(180)의 제어 신호에 따라 디스플레이부(151)상에 디스플레이되는 영상과 동일하거나 적어도 일부가 다른 영상을 외부 스크린 또는 벽에 디스플레이할 수 있다.The projector module 155 is a component for performing an image project function using a robot or a device and is configured to have the same or at least the same image as displayed on the display unit 151 in accordance with a control signal of the controller 180 Some can display other images on an external screen or wall.

구체적으로, 프로젝터 모듈(155)은, 영상을 외부로 출력하기 위한 빛(일 예로서, 레이저 광)을 발생시키는 광원(미도시), 광원에 의해 발생한 빛을 이용하여 외부로 출력할 영상을 생성하기 위한 영상 생성 수단 (미도시), 및 영상을 일정 초점 거리에서 외부로 확대 출력하기 위한 렌즈(미도시)를 포함할 수 있다. 또한, 프로젝터 모듈(155)은, 렌즈 또는 모듈 전체를 기계적으로 움직여 영상 투사 방향을 조절할 수 있는 장치(미도시)를 포함할 수 있다.Specifically, the projector module 155 includes a light source (not shown) that generates light (for example, laser light) for outputting an image to the outside, a light source And a lens (not shown) for enlarging and outputting the image at a predetermined focal distance to the outside. Further, the projector module 155 may include a device (not shown) capable of mechanically moving the lens or the entire module to adjust the image projection direction.

프로젝터 모듈(155)은 디스플레이 수단의 소자 종류에 따라 CRT(Cathode Ray Tube) 모듈, LCD(Liquid Crystal Display) 모듈 및 DLP(Digital Light Processing) 모듈 등으로 나뉠 수 있다. 특히, DLP 모듈은, 광원에서 발생한 빛이 DMD(Digital Micromirror Device) 칩에 반사됨으로써 생성된 영상을 확대 투사하는 방식으로 프로젝터 모듈(151)의 소형화에 유리할 수 있다.The projector module 155 can be divided into a CRT (Cathode Ray Tube) module, an LCD (Liquid Crystal Display) module and a DLP (Digital Light Processing) module according to the type of the display means. In particular, the DLP module may be advantageous for miniaturization of the projector module 151 by enlarging and projecting an image generated by reflecting light generated from a light source on a DMD (Digital Micromirror Device) chip.

바람직하게, 프로젝터 모듈(155)은, 로봇 또는 기기의 측면, 정면 또는 배면에 길이 방향으로 구비될 수 있다. 물론, 프로젝터 모듈(155)은, 필요에 따라 로봇 또는 기기의 어느 위치에라도 구비될 수 있음은 당연하다.Preferably, the projector module 155 may be provided longitudinally on the side, front or back side of the robot or appliance. Needless to say, the projector module 155 may be provided at any position of the robot or the apparatus, if necessary.

메모리부(160)는 제어부(180)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입/출력되는 데이터들(예를 들어, 메시지, 오디오, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다. 상기 메모리부(160)에는 상기 데이터들 각각에 대한 사용 빈도도 함께 저장될 수 있다. 또한, 상기 메모리부(160)에는 상기 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.The memory unit 160 may store programs for processing and control of the controller 180 and may store functions for temporarily storing input / output data (e.g., messages, audio, still images, . ≪ / RTI > The frequency of use of each of the data may be stored in the memory unit 160 as well. In addition, the memory unit 160 may store data on vibration and sound of various patterns output when the touch is input on the touch screen.

메모리(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 로봇 또는 기기는 인터넷(internet)상에서 상기 메모리(160)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The memory 160 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), a RAM (Random Access Memory), SRAM (Static Random Access Memory), ROM (Read Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM A disk, and / or an optical disk. The robot or device may operate in association with a web storage that performs the storage function of the memory 160 on the Internet.

인터페이스부(170)는 로봇 또는 기기에 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스부(170)는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 로봇 또는 기기 내부의 각 구성 요소에 전달하거나, 로봇 또는 기기 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 인터페이스부(170)에 포함될 수 있다. The interface unit 170 serves as a path between the robot and all external devices connected to the device. The interface unit 170 receives data from an external device, receives power from the external device, transfers the power to each component in the robot or the device, or transmits data in the robot or device to an external device. For example, a wired / wireless headset port, an external charger port, a wired / wireless data port, a memory card port, a port for connecting a device having an identification module, an audio I / O port, A video input / output (I / O) port, an earphone port, and the like may be included in the interface unit 170.

식별 모듈은 로봇 또는 기기의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module, UIM), 가입자 인증 모듈(Subscriber Identify Module, SIM), 범용 사용자 인증 모듈(Universal Subscriber Identity Module, USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 포트를 통하여 로봇 또는 기기와 연결될 수 있다. The identification module is a chip that stores various information for authenticating the use right of the robot or the device. The identification module includes a user identification module (UIM), a subscriber identity module (SIM), a universal user authentication module Identity Module, USIM), and the like. Devices with identification modules (hereinafter referred to as "identification devices") can be manufactured in a smart card format. The identification device can thus be connected to the robot or device through the port.

상기 인터페이스부는 로봇 또는 기기가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 로봇 또는 기기에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동기기로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 이동기기가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.The interface unit may be a path through which power from the cradle is supplied to the robot or the device when the robot or the device is connected to an external cradle or various command signals input from the cradle by the user are transmitted to the mobile device It can be a passage. The various command signals or the power source input from the cradle may be operated as a signal for recognizing that the mobile device is correctly mounted on the cradle.

제어부(controller, 180)는 통상적으로 로봇 또는 기기의 전반적인 동작을 제어한다. The controller 180 typically controls the overall operation of the robot or device.

제어부(180)는 멀티 미디어 재생을 위한 멀티미디어 모듈(181)을 구비할 수도 있다. 멀티미디어 모듈(181)은 제어부(180) 내에 구현될 수도 있고, 제어부(180)와 별도로 구현될 수도 있다.The control unit 180 may include a multimedia module 181 for multimedia playback. The multimedia module 181 may be implemented in the control unit 180 or may be implemented separately from the control unit 180. [

상기 제어부(180)는 상기 터치스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다. The controller 180 may perform a pattern recognition process for recognizing handwriting input or drawing input performed on the touch screen as characters and images, respectively.

전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가 받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit 190 receives external power and internal power under the control of the controller 180 and supplies power necessary for operation of the respective components.

여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.The various embodiments described herein may be embodied in a recording medium readable by a computer or similar device using, for example, software, hardware, or a combination thereof.

하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시예들이 제어부(180) 자체로 구현될 수 있다.According to a hardware implementation, the embodiments described herein may be implemented as application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays May be implemented using at least one of a processor, controllers, micro-controllers, microprocessors, and other electronic units for performing other functions. In some cases, The embodiments described may be implemented by the control unit 180 itself.

소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 메모리(160)에 저장되고, 제어부(180)에 의해 실행될 수 있다.According to a software implementation, embodiments such as the procedures and functions described herein may be implemented with separate software modules. Each of the software modules may perform one or more of the functions and operations described herein. Software code can be implemented in a software application written in a suitable programming language. The software code is stored in the memory 160 and can be executed by the control unit 180. [

도 2는 본 발명이 제안하는 로봇에 적용되는 수신부 및 제어부의 구체적일 일례를 도시한 것이다.FIG. 2 shows a specific example of a receiving unit and a control unit applied to the robot proposed by the present invention.

즉, 도 1에서 설명한 무선통신부(110)가 수신부로 동작하는 경우의 회로와 제어부(180)가 무선통신부(110)와 함께 수신 동작을 하는 경우에 적용되는 회로의 일례를 도시한 것이다.1 shows an example of a circuit when the wireless communication unit 110 operates as a receiving unit and a circuit applied when the control unit 180 performs a receiving operation together with the wireless communication unit 110. [

도 3a 및 도 3b는 본 발명이 제안하는 로봇에 적용되는 송신부의 구체적인 일례를 도시한 것이다.3A and 3B illustrate a concrete example of a transmitter applied to a robot proposed by the present invention.

즉, 도 1에서 설명한 무선통신부(110)가 송신부로 동작하는 경우의 회로의 구성도 및 실제 회로의 상태를 도시한 것이다.That is, the circuit diagram and the actual circuit state when the wireless communication unit 110 described in FIG. 1 operates as a transmitting unit are shown.

전술한 본 발명을 이루는 구성요소들을 기초로 본 발명이 제공하는 서비스에 대해 구체적으로 설명한다.The service provided by the present invention will be described in detail based on the constituent elements of the present invention described above.

일반적인 운반 로봇은 메모리에 스스로 가야 할 방향이나 위치 등을 기억해 이동하는 산업용 로봇으로 많이 이용된다. A general carrying robot is often used as an industrial robot that moves and memorizes the direction and position to go to the memory itself.

이에 좀 더 아이디어를 보태면, 사람의 일을 독단적으로 도와주는 로봇이 아닌 변하는 IT시대에 맞춰 인간의 직업을 빼앗지 않고 함께 공생하는 로봇을 구현하고자 하는 목표에 맞춰서 사무실, 쇼핑, 도서관, 음식점 등 무거운 것을 보다 편리하게 운반하기 위한 로봇으로 다양한 곳에 활용될 것이라고 생각되어 본 발명을 제안하게 되었다. If you give more ideas, you can use robots such as office, shopping, library, restaurants and so on to meet the goal of implementing robots that coexist together without depriving the human occupation according to the changing IT period, It is thought that it will be utilized in various places as a robot for carrying more conveniently, and the present invention has been proposed.

추적 운반 로봇의 목적에는 사람의 일을 독단적으로 도와주는 로봇이 아닌 변하는 IT 시대에 맞춰 인간의 직업을 빼앗지 않고 함께 공생하는 로봇을 구현하고자 하는 목적에 있다. The purpose of the tracing and carrying robot is to implement a robot that coexists together without taking away the occupation of human beings in accordance with the changed IT age, rather than a robot that assists the person's work arbitrarily.

추적 운반 로봇을 산업 현장에서 무거운 물체를 들거나 작업대의 형태로 변형시켜 운반을 하거나, 도서관에서 책을 수거하여 정리를 할 때에도 사용될 수 있어 산업현장을 포함한 다양한 일상 속에서 편리함을 줄 수 있다. It can be used to carry heavy objects in the industrial field or transform them into the shape of a work platform, or to collect books by collecting them in a library, which can be convenient in various daily situations including industrial sites.

이러한 추적 운반 로봇을 사용함으로써 인간의 노동력 절감효과를 크게 기대할 수 있으며, 산업 현장뿐만 아니라 일상생활에서도 사용을 시켜 효율적인 근로와 삶의 질을 향상시킬 수 있다.By using such a tracing and carrying robot, human labor saving power can be greatly expected, and it can be used not only in the industrial field but also in daily life, thereby improving the efficiency of work and quality of life.

본 발명에서는 ATmega128a 등과 같은 제어부(180)를 이용하여 지그비 등과 같은 근거리 통신을 수행하는 무선통신부(110) 및 모터(미도시) 등의 제어를 수행할 수 있다.In the present invention, a control unit 180 such as ATmega 128a may be used to control a wireless communication unit 110 and a motor (not shown) for performing close-range communication such as ZigBee.

또한, 본 발명에서는 제어부(180)의 제어에 따라 그비 등과 같은 근거리 통신신호 세기(RSSI) 값을 이용하여 사용자와 이동 로봇 간의 이격 거리를 측정할 수 있다.Also, in the present invention, the distance between the user and the mobile robot can be measured using the RSSI value such as the gravity or the like according to the control of the controller 180.

또한, 초음파 센서(142)를 사용하여 사람이나 물체를 인식해 충돌을 방지할 수 있다.In addition, the ultrasonic sensor 142 can be used to recognize a person or an object to prevent a collision.

도 4는 본 발명이 제안하는 로봇을 이용하여 사용자를 추적함과 동시에 주변 객체와의 충돌을 미리 예방할 수 있는 방법을 설명하기 위한 순서도이다.FIG. 4 is a flowchart illustrating a method of tracking a user using a robot proposed by the present invention and preventing a collision with neighboring objects in advance.

도 4를 참조하면, 가장 먼저, 사용자의 기기와 운반 보조 로봇이 서로 통신하는 단계(S100)가 수행된다.Referring to FIG. 4, first, a step S100 in which the user's device and the transportation assist robot communicate with each other is performed.

이후, 운반 보조 로봇이 사용자 기기로부터 수신한 신호 세기 값을 이용하여 상기 사용자와의 이격거리를 산출하는 단계(S200)가 진행된다.Thereafter, a step S200 of calculating the separation distance from the user using the signal intensity value received from the user equipment by the transportation assist robot is performed.

대표적인 일례로서 신호강도 지표(Signal Strength Indicator)를 이용하여 사용자와의 이격거리를 산출할 수 있다.As a representative example, a distance from the user can be calculated using a signal strength indicator (Signal Strength Indicator).

또한, 운반 보조 로봇은 기 설정된 거리와 산출된 거리를 비교함으로써, 운반 보조 로봇이 사용자와 일정거리를 유지하면서 사용자를 추적하는 단계(S300)가 수행된다.Further, the transportation assist robot compares the predetermined distance with the calculated distance, thereby performing the step S300 of tracking the user while maintaining the distance between the transportation assist robot and the user.

이를 통해, 사용자와 이동 로봇은 일정 거리의 이격거리를 유지한 채, 특정 장소로 이동하면서 작업을 수행하는 것이 가능하다.Thus, it is possible for the user and the mobile robot to perform work while moving to a specific place while maintaining a predetermined distance.

또한, 운반 보조 로봇이 초음파 센서(142)를 이용하여 초음파를 외부로 송출하는 단계(S400)가 수행된다.In addition, a step S400 of transmitting the ultrasonic waves to the outside using the ultrasonic sensor 142 is performed by the transportation assist robot.

이후, 운반 보조 로봇은 송출된 초음파의 피드백을 통해 주변 객체를 인식(S500)하고, 주변 객체가 인식된 경우, 운반 보조 로봇이 이동을 중단하여 충돌을 방지하는 단계(S600)가 수행된다.Thereafter, the transporting assistant robot recognizes the surrounding objects through the feedback of the transmitted ultrasonic waves (S500), and if the surrounding objects are recognized, the transporting assistant robot stops moving to prevent the collision (S600).

따라서 본 발명은 사용자 기기로부터 수신한 신호 세기 값을 이용하여 사용자와의 이격 거리를 산출하여 사용자와 일정거리를 유지하면서 사용자를 추적함과 동시에 초음파 센서를 이용하여 주변 객체와의 충돌을 미리 예방할 수 있는 산업 현장 운반 로봇을 제공할 수 있다.Accordingly, the present invention calculates a distance from a user using a signal intensity value received from a user device, tracks a user while maintaining a certain distance from the user, and prevents collision with neighboring objects using an ultrasonic sensor The present invention can provide an industrial field-carrying robot having the above-described structure.

상술한 본 발명의 실시예들은 다양한 수단을 통해 구현될 수 있다. 예를 들어, 본 발명의 실시예들은 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다. The above-described embodiments of the present invention can be implemented by various means. For example, embodiments of the present invention may be implemented by hardware, firmware, software, or a combination thereof.

하드웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 프로세서, 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.In the case of hardware implementation, the method according to embodiments of the present invention may be implemented in one or more Application Specific Integrated Circuits (ASICs), Digital Signal Processors (DSPs), Digital Signal Processing Devices (DSPDs), Programmable Logic Devices (PLDs) , FPGAs (Field Programmable Gate Arrays), processors, controllers, microcontrollers, microprocessors, and the like.

펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차 또는 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드는 메모리 유닛에 저장되어 프로세서에 의해 구동될 수 있다. 상기 메모리 유닛은 상기 프로세서 내부 또는 외부에 위치하여, 이미 공지된 다양한 수단에 의해 상기 프로세서와 데이터를 주고 받을 수 있다.In the case of an implementation by firmware or software, the method according to embodiments of the present invention may be implemented in the form of a module, a procedure or a function for performing the functions or operations described above. The software code can be stored in a memory unit and driven by the processor. The memory unit may be located inside or outside the processor, and may exchange data with the processor by various well-known means.

상술한 바와 같이 개시된 본 발명의 바람직한 실시예들에 대한 상세한 설명은 당업자가 본 발명을 구현하고 실시할 수 있도록 제공되었다. 상기에서는 본 발명의 바람직한 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 본 발명의 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 예를 들어, 당업자는 상술한 실시예들에 기재된 각 구성을 서로 조합하는 방식으로 이용할 수 있다. 따라서, 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The foregoing description of the preferred embodiments of the invention disclosed herein has been presented to enable any person skilled in the art to make and use the present invention. While the present invention has been particularly shown and described with reference to preferred embodiments thereof, it will be understood by those skilled in the art that various changes and modifications may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. For example, those skilled in the art can utilize each of the configurations described in the above-described embodiments in a manner of mutually combining them. Accordingly, the present invention is not intended to be limited to the embodiments shown herein but is to be accorded the widest scope consistent with the principles and novel features disclosed herein.

본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다. 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다. 또한, 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함할 수 있다.The present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof. Accordingly, the above description should not be construed in a limiting sense in all respects and should be considered illustrative. The scope of the present invention should be determined by rational interpretation of the appended claims, and all changes within the scope of equivalents of the present invention are included in the scope of the present invention. The present invention is not intended to be limited to the embodiments shown herein but is to be accorded the widest scope consistent with the principles and novel features disclosed herein. In addition, claims that do not have an explicit citation in the claims may be combined to form an embodiment or be included in a new claim by amendment after the filing.

Claims (3)

사용자 기기와 통신하는 산업 현장 운반 로봇을 제어하는 방법에 있어서,
상기 사용자 기기로부터 신호를 수신하는 단계;
상기 수신한 신호의 세기 값을 산출하는 단계;
상기 신호의 세기 값을 이용하여 상기 사용자와의 이격거리를 산출하는 단계;
기 설정된 이격거리와 상기 산출된 거리를 비교하는 단계;
상기 비교 결과를 이용하여 상기 사용자와 상기 기 설정된 이격거리 이내로 떨어진 상태를 유지하는 단계;
초음파 센서를 이용하여 초음파를 외부로 송출하는 단계;
상기 송출한 초음파의 피드백을 이용하여 주변 객체가 존재하는지 여부를 판단하는 단계; 및
상기 주변 객체가 존재하는 경우, 이동을 중단하는 단계;를 포함하는 산업 현장 운반 로봇의 제어방법.
A method for controlling an industrial field carrying robot communicating with a user equipment,
Receiving a signal from the user equipment;
Calculating an intensity value of the received signal;
Calculating a separation distance from the user using the intensity value of the signal;
Comparing the calculated distance with the calculated distance;
Maintaining a state in which the user is away from the predetermined distance by using the comparison result;
Transmitting ultrasound to the outside using an ultrasonic sensor;
Determining whether a surrounding object is present using the feedback of the transmitted ultrasonic wave; And
And stopping the movement if the neighboring object is present.
제 1항에 있어서,
상기 신호의 세기 값은 신호강도 지표(Signal Strength Indicator) 인 것을 특징으로 하는 산업 현장 운반 로봇의 제어방법.
The method according to claim 1,
Wherein the intensity value of the signal is a signal strength indicator.
제 1항에 있어서,
상기 사용자 기기와 상기 산업 현장 운반 로봇은 근거리 통신 및 원거리 통신 중 적어도 하나가 이용하여 통신하고,
상기 근거리 통신은 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee, Wi-Fi (Wireless Fidelity) 기술을 포함하며,
상기 원거리 통신은 CDMA(code division multiple access), FDMA(frequency division multiple access), TDMA(time division multiple access), OFDMA(orthogonal frequency division multiple access), SC-FDMA(single carrier frequency division multiple access) 기술을 포함하는 것을 특징으로 하는 산업 현장 운반 로봇의 제어방법.
The method according to claim 1,
Wherein the user equipment and the industrial site carrying robot communicate using at least one of short-distance communication and long-distance communication,
The near-field communication includes Bluetooth, Radio Frequency Identification (RFID), infrared data association (IrDA), Ultra Wideband (UWB), ZigBee, and Wi-Fi (Wireless Fidelity)
The long-distance communication may be performed using a code division multiple access (CDMA), a frequency division multiple access (FDMA), a time division multiple access (TDMA), an orthogonal frequency division multiple access (OFDMA), a single carrier frequency division multiple access Wherein the control unit is configured to control the operation of the industrial field carrying robot.
KR1020160041895A 2016-04-05 2016-04-05 Transport Robot For Industry Place KR20170115188A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160041895A KR20170115188A (en) 2016-04-05 2016-04-05 Transport Robot For Industry Place

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160041895A KR20170115188A (en) 2016-04-05 2016-04-05 Transport Robot For Industry Place

Publications (1)

Publication Number Publication Date
KR20170115188A true KR20170115188A (en) 2017-10-17

Family

ID=60298066

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160041895A KR20170115188A (en) 2016-04-05 2016-04-05 Transport Robot For Industry Place

Country Status (1)

Country Link
KR (1) KR20170115188A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021002499A1 (en) * 2019-07-02 2021-01-07 엘지전자 주식회사 Method for tracking user location by using swarm robots, tag device, and robot implementing same
WO2022014729A1 (en) * 2020-07-14 2022-01-20 주식회사 오모로봇 Device for controlling travel of moving body
KR102595007B1 (en) 2023-03-24 2023-10-27 주식회사 아임토리 Mathod and Apparatus for Optimizing of Robot Process

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021002499A1 (en) * 2019-07-02 2021-01-07 엘지전자 주식회사 Method for tracking user location by using swarm robots, tag device, and robot implementing same
US11565415B2 (en) 2019-07-02 2023-01-31 Lg Electronics Inc. Method of tracking user position using crowd robot, tag device, and robot implementing thereof
WO2022014729A1 (en) * 2020-07-14 2022-01-20 주식회사 오모로봇 Device for controlling travel of moving body
KR102595007B1 (en) 2023-03-24 2023-10-27 주식회사 아임토리 Mathod and Apparatus for Optimizing of Robot Process

Similar Documents

Publication Publication Date Title
WO2021128777A1 (en) Method, apparatus, device, and storage medium for detecting travelable region
US20070013510A1 (en) Position management system and position management program
RU2656933C2 (en) Method and device for early warning during meeting at curves
US10948907B2 (en) Self-driving mobile robots using human-robot interactions
US8090193B2 (en) Mobile robot
CN110979318B (en) Lane information acquisition method and device, automatic driving vehicle and storage medium
KR101321601B1 (en) Controller for multiple robot using wireless teaching pendant and method for controlling thereof
WO2020228242A1 (en) Method and apparatus for tracking target object, and storage medium
EP3806066B1 (en) Method and apparatus for controlling automated guided vehicles, and storage medium
KR20180038879A (en) Robot for airport and method thereof
US20130218395A1 (en) Autonomous moving apparatus and method for controlling the same
CN103885444A (en) Information processing method, mobile electronic equipment and decision-making control equipment
KR101575159B1 (en) Method of operating application for providing parking information to mobile terminal
KR101563542B1 (en) Parking information system using mobile terminal
JP2009139250A (en) Detection object detection server
KR20170115188A (en) Transport Robot For Industry Place
KR102570164B1 (en) Airport robot, and method for operating server connected thereto
US20190354246A1 (en) Airport robot and movement method therefor
CN111361550A (en) Parking space identification method and device and storage medium
US20210157300A1 (en) Conveyance control system, conveyance control program, and conveyance control method
KR20180124713A (en) An electronic device and method thereof for estimating shape of road
JP2019078617A (en) Mobility device and method of environment sensing in mobility device
CN112291701B (en) Positioning verification method, positioning verification device, robot, external equipment and storage medium
KR101566782B1 (en) Traffic regulation system for stop-line violation and speed limit viloation and method for controlling thereof
KR101302363B1 (en) Electronic device and method for controlling of the same

Legal Events

Date Code Title Description
E601 Decision to refuse application