KR20240020865A - Electronic device, systems and methods for robot control - Google Patents

Electronic device, systems and methods for robot control Download PDF

Info

Publication number
KR20240020865A
KR20240020865A KR1020220099112A KR20220099112A KR20240020865A KR 20240020865 A KR20240020865 A KR 20240020865A KR 1020220099112 A KR1020220099112 A KR 1020220099112A KR 20220099112 A KR20220099112 A KR 20220099112A KR 20240020865 A KR20240020865 A KR 20240020865A
Authority
KR
South Korea
Prior art keywords
robot
image information
server
electronic device
information
Prior art date
Application number
KR1020220099112A
Other languages
Korean (ko)
Inventor
김민수
박경식
한재훈
서준호
김정은
Original Assignee
네이버랩스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 네이버랩스 주식회사 filed Critical 네이버랩스 주식회사
Priority to KR1020220099112A priority Critical patent/KR20240020865A/en
Priority to PCT/KR2023/010557 priority patent/WO2024034911A1/en
Publication of KR20240020865A publication Critical patent/KR20240020865A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/006Controls for manipulators by means of a wireless system for controlling one or several manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems

Abstract

본 발명에 따른 로봇에 장착되는 전자 장치는, 실내 공간에서 로봇의 주행을 위한 시각적 측위를 수행하기 위하여, 실내 공간에 대한 영상 정보를 획득하는 센싱부, 전자 장치와 로봇 간의 데이터 통신을 수행하는 인터페이스부 및 서버와 통신하고, 서버가 영상 정보를 이용하여 시각적 측위를 수행하도록, 서버로 영상 정보를 송신하는 통신부를 포함하고, 서버로부터, 시각적 측위의 결과에 기반하여 생성된 제어 신호를 수신하는 것에 응답하여, 로봇이 제어 신호에 기반하여 실내 공간에서 주행하도록, 서버로부터 수신된 제어 신호를 인터페이스부를 통해 로봇으로 전달할 수 있다.The electronic device mounted on the robot according to the present invention includes a sensing unit that acquires image information about the indoor space in order to perform visual positioning for the robot to run in the indoor space, and an interface that performs data communication between the electronic device and the robot. It includes a communication unit that communicates with the unit and the server, and transmits image information to the server so that the server performs visual positioning using the image information, and receives a control signal generated based on the result of the visual positioning from the server. In response, the control signal received from the server may be transmitted to the robot through the interface unit so that the robot runs in the indoor space based on the control signal.

Figure P1020220099112
Figure P1020220099112

Description

로봇 제어를 위한 전자 장치, 시스템 및 방법{ELECTRONIC DEVICE, SYSTEMS AND METHODS FOR ROBOT CONTROL}Electronic devices, systems and methods for robot control {ELECTRONIC DEVICE, SYSTEMS AND METHODS FOR ROBOT CONTROL}

본 발명은 로봇 제어를 위한 전자 장치, 시스템 및 방법에 관한 것이다. 보다 구체적으로, 로봇에 장착되어 로봇이 주행하는 실내 공간에 관한 정보를 획득하고, 서버가 생성한 로봇의 주행을 제어하기 위한 제어 신호를 통해 로봇의 주행을 제어하는 전자 장치, 시스템 및 방법에 관한 것이다.The present invention relates to electronic devices, systems and methods for robot control. More specifically, about an electronic device, system, and method that is mounted on a robot, obtains information about the indoor space in which the robot runs, and controls the movement of the robot through a control signal generated by a server to control the movement of the robot. will be.

기술이 발전함에 따라, 전자기기(예를 들어, 스마트폰, 태블릿 PC, 자동화 기기 등)의 보급이 대중화되었으며, 이에 따라 일상생활의 많은 부분에서 전자기기에 대한 의존도가 점차적으로 높아지고 있다. As technology develops, the spread of electronic devices (e.g., smartphones, tablet PCs, automated devices, etc.) has become popular, and as a result, dependence on electronic devices is gradually increasing in many aspects of daily life.

나아가 최근에는, 인공 지능 기술, 클라우드 기술 등이 발전함에 따라, 로봇을 효율적으로 제어하기 위한 브레인리스 로봇 시스템에 대한 개발이 이루어지고 있다.Furthermore, recently, as artificial intelligence technology, cloud technology, etc. have developed, brainless robot systems are being developed to efficiently control robots.

브레인리스 로봇 시스템은 복수의 브레인리스 로봇 및 브레인 서버를 포함하고, 브레인리스 로봇 시스템에서 각 브레인리스 로봇은 원격 또는 엣지(edge)에 위치한 브레인 서버에 센서 정보 및 각종 로봇의 상태를 리포트하고 이동 등의 제어 명령을 수신하여 처리하게 된다.The brainless robot system includes a plurality of brainless robots and brain servers. In the brainless robot system, each brainless robot reports sensor information and the status of various robots to a brain server located remotely or at the edge and moves, etc. Control commands are received and processed.

이 때, 브레인리스 로봇이 브레인 서버로부터 제어 명령을 수신하여 처리하기 위해서는, 특정 브레인 서버와 연동 가능한 센서, 통신 장치 및 프로세서 등이 내장되어야 하고, 이러한 로봇을 신규 개발하기 위해서는 비용 및 노력이 요구된다.At this time, in order for the brainless robot to receive and process control commands from the brain server, it must be equipped with sensors, communication devices, and processors that can be linked to a specific brain server, and cost and effort are required to develop new robots. .

또한, 저사양 로봇 또는 제3 자(3rd party)가 제작한 로봇 등의 경우, 특정 브레인 서버와 연동되지 않는 어려움이 존재할 수 있다.Additionally, in the case of low-spec robots or robots manufactured by a third party, there may be difficulties in linking with a specific brain server.

이에, 대한민국 공개특허 제10-2021-0062684호(분리형 차량 lidar 데이터 수집 포드)에서는, 차량에 장착되어 환경/차량 데이터를 수집하고 원격 서버와 통신하는 포드(pod)에 대하여 개시되어 있으나, 실내 공간을 주행하는 로봇에 장착되어 획득한 실내 영상 정보를 서버에 전송하고, 서버가 생성한 제어 신호를 로봇에 전달하는 장치에 대해서는 개시하지 않는다.Accordingly, in Republic of Korea Patent Publication No. 10-2021-0062684 (Separate vehicle lidar data collection pod), a pod that is mounted on a vehicle to collect environmental/vehicle data and communicate with a remote server is disclosed, but the indoor space It does not disclose a device that is mounted on a robot traveling and transmits the acquired indoor image information to a server and transmits the control signal generated by the server to the robot.

이에, 로봇에 장착되어 실내 영상 정보를 수집하여 서버로 전송하고, 서버가 수신한 정보를 이용하는 시각적 측위를 통해 생성한 제어 신호를 로봇에 전달함으로써, 로봇의 실내 주행을 제어하는 장치에 대한 니즈가 여전히 존재한다.Accordingly, there is a need for a device that controls the robot's indoor driving by being mounted on the robot, collecting indoor image information and transmitting it to the server, and transmitting control signals generated through visual positioning using the information received by the server to the robot. It still exists.

본 발명은 로봇의 주행을 제어하기 위한 전자 장치, 시스템 및 방법을 제공하는 것이다. 보다 구체적으로 본 발명은, 로봇에 장착되어 로봇이 주행하는 실내 공간에 관한 정보를 획득하고, 서버가 생성한 로봇의 주행을 제어하기 위한 제어 신호를 통해 로봇의 주행을 제어하는 전자 장치, 시스템 및 방법을 제공하는 것이다.The present invention provides an electronic device, system, and method for controlling the movement of a robot. More specifically, the present invention relates to an electronic device, a system, and It provides a method.

나아가, 본발명은 로봇에 장착된 전자 장치가 획득한 영상 정보와 로봇이 획득한 로봇 영상 정보를 서버로 전달하고, 서버가 영상 정보 및 로봇 영상 정보에 기반하여 생성한 제어 신호를 로봇에 전달하는 전자 장치, 시스템 및 방법을 제공하는 것이다.Furthermore, the present invention transmits image information acquired by an electronic device mounted on the robot and robot image information acquired by the robot to a server, and the server transmits a control signal generated based on the image information and robot image information to the robot. To provide electronic devices, systems and methods.

위에서 살펴본 과제를 해결하기 위하여 로봇에 장착되는 전자 장치는, 실내 공간에서 로봇의 주행을 위한 시각적 측위(visual localization)를 수행하기 위하여, 실내 공간에 대한 영상 정보를 획득하는 센싱부, 전자 장치와 로봇 간의 데이터 통신을 수행하는 인터페이스부 및 서버와 통신하고, 서버가 영상 정보를 이용하여 시각적 측위를 수행하도록, 서버로 영상 정보를 송신하는 통신부를 포함하고, 서버로부터, 시각적 측위의 결과에 기반하여 생성된 제어 신호를 수신하는 것에 응답하여, 로봇이 제어 신호에 기반하여 실내 공간에서 주행하도록, 서버로부터 수신된 제어 신호를 인터페이스부를 통해 로봇으로 전달할 수 있다.The electronic devices mounted on the robot to solve the problems discussed above include a sensing unit that acquires image information about the indoor space in order to perform visual localization for the robot to run in the indoor space, electronic devices, and the robot. An interface unit that performs data communication between devices and a communication unit that communicates with the server and transmits image information to the server so that the server performs visual positioning using the image information, and generates data from the server based on the results of the visual positioning. In response to receiving the control signal, the control signal received from the server may be transmitted to the robot through the interface unit so that the robot runs in the indoor space based on the control signal.

또한, 로봇 제어 시스템은 실내 공간에서 로봇의 주행을 제어하기 위한 제어 신호를 생성하는 서버, 및 로봇에 장착되어 로봇과 관련된 정보를 획득하고, 로봇을 통하여 로봇과 관련된 정보를 서버로 전달하는 전자 장치를 포함하고, 전자 장치는, 서버에서 로봇의 주행 제어를 위한 시각적 측위가 수행되도록, 센싱부를 통해 실내 공간에 대한 영상 정보를 획득하고, 영상 정보가 로봇을 통해 서버로 전달되도록, 로봇과 데이터 통신을 수행하도록 연결된 인터페이스부를 통해 \로봇으로 영상 정보를 전달하고, 서버는, 로봇으로부터 전자 장치에서 획득된 영상 정보를 수신하는 것에 응답하여, 영상 정보에 기반하여 로봇에 대한 시각적 측위를 수행하고, 시각적 측위의 결과에 근거하여 실내 공간에서 로봇의 주행을 제어하기 위한 제어 신호를 생성하고, 전자 장치에서 획득된 영상 정보에 근거하여 생성된, 로봇의 주행을 제어하기 위한 제어 신호를 로봇으로 전송할 수 있다.In addition, the robot control system includes a server that generates control signals to control the movement of the robot in an indoor space, and an electronic device that is mounted on the robot, obtains information related to the robot, and transmits information related to the robot to the server through the robot. The electronic device acquires image information about the indoor space through a sensing unit so that visual positioning for driving control of the robot is performed in the server, and communicates data with the robot so that the image information is transmitted to the server through the robot. Transmits image information to the robot through an interface unit connected to perform, and the server, in response to receiving image information acquired from an electronic device from the robot, performs visual positioning for the robot based on the image information, and performs visual Based on the results of the positioning, a control signal for controlling the robot's driving in an indoor space is generated, and a control signal for controlling the robot's driving generated based on image information acquired from an electronic device can be transmitted to the robot. .

또한, 로봇 제어 방법은 로봇에 장착된 전자 장치의 센싱부를 통해, 실내 공간에서 로봇의 주행을 위한 시각적 측위를 수행하기 위하여, 실내 공간에 대한 영상 정보를 획득하는 단계, 서버가 시각적 측위를 수행하도록, 영상 정보를 서버로 전송하는 단계 및 서버로부터, 시각적 측위의 결과에 기반하여 생성된 제어 신호를 수신하는 것에 응답하여, 로봇이 제어 신호에 기반하여 실내 공간에서 주행하도록 제어 신호를 로봇으로 전달하는 단계를 포함할 수 있다.In addition, the robot control method includes obtaining image information about the indoor space through a sensing unit of an electronic device mounted on the robot to perform visual positioning for the robot to run in the indoor space, and allowing the server to perform visual positioning. , transmitting image information to a server and, in response to receiving a control signal generated based on the result of visual positioning from the server, transmitting a control signal to the robot so that the robot runs in an indoor space based on the control signal. May include steps.

나아가, 전자기기에서 하나 이상의 프로세스에 의하여 실행되며, 컴퓨터로 판독될 수 있는 기록매체에 저장된 프로그램으로서, 프로그램은, 로봇에 장착된 전자 장치의 센싱부를 통해, 실내 공간에서 로봇의 주행을 위한 시각적 측위를 수행하기 위하여, 실내 공간에 대한 영상 정보를 획득하는 단계, 서버가 시각적 측위를 수행하도록, 영상 정보를 서버로 전송하는 단계, 및 서버로부터, 시각적 측위의 결과에 기반하여 생성된 제어 신호를 수신하는 것에 응답하여, 로봇이 제어 신호에 기반하여 실내 공간에서 주행하도록, 제어 신호를 로봇으로 전달하는 단계를 수행하는 명령어들을 포함하는 것을 특징으로 할 수 있다.Furthermore, it is a program that is executed by one or more processes in an electronic device and stored in a computer-readable recording medium, and the program provides visual positioning for the robot to run in an indoor space through a sensing unit of the electronic device mounted on the robot. In order to perform, obtaining image information about the indoor space, transmitting the image information to the server so that the server performs visual positioning, and receiving a control signal generated based on the result of the visual positioning from the server. In response to doing so, it may be characterized as including instructions for transmitting a control signal to the robot so that the robot runs in an indoor space based on the control signal.

위에서 살펴본 바와 같이, 본 발명에 따라 로봇에 장착되는 전자 장치 및 로봇 제어 시스템은, 로봇에 장착되어 로봇의 주행과 관련된 정보를 획득하고, 획득된 정보를 이용하여 서버와 통신함으로써, 로봇의 종류 또는 사양에 관계없이 서버에 의해 제어되는 로봇 제어 환경을 제공할 수 있다.As seen above, the electronic device and robot control system mounted on the robot according to the present invention are mounted on the robot to obtain information related to the running of the robot, and communicate with the server using the obtained information to determine the type of robot or Regardless of specifications, a robot control environment controlled by a server can be provided.

나아가, 본 발명에 따른 로봇에 장착되는 전자 장치 및 로봇 제어 시스템은, 서로 다른 위치에서 획득한, 전자 장치가 획득한 정보 및 로봇이 획득한 정보를 함께 이용하여 시각적 측위를 통해 제어 신호를 생성하도록 함으로써, 서버에 의한 로봇 제어의 정밀도를 향상시킬 수 있다.Furthermore, the electronic device and robot control system mounted on the robot according to the present invention use the information acquired by the electronic device and the information acquired by the robot together to generate a control signal through visual positioning. By doing so, the precision of robot control by the server can be improved.

또한, 본 발명에 따른 로봇에 장착되는 전자 장치 및 로봇 제어 시스템은, 서버에서 제공된 제어 신호 뿐만 아니라, 전자 장치에 의해 획득된 정보에 기반한 주행 보조 정보를 통해서도 로봇의 주행을 제어함으로써, 실내 공간에서 장애물에 유연하게 대처할 수 있는 로봇 제어 환경을 제공할 수 있다.In addition, the electronic device and robot control system mounted on the robot according to the present invention control the robot's driving not only through control signals provided from the server, but also through driving assistance information based on information acquired by the electronic device, thereby controlling the robot's driving in an indoor space. It is possible to provide a robot control environment that can flexibly respond to obstacles.

도 1 및 도 2는, 본 발명에 따른 로봇에 장착되는 전자 장치 및 로봇 제어 시스템을 설명하기 위한 개념도다.
도 3은, 일 실시 예에 따른 전자 장치가 로봇을 제어하는 방법을 나타내는 흐름도다.
도 4는, 일 실시 예에 따른 서버가 로봇을 제어하기 위한 제어 신호를 생성하는 방법을 나타내는 흐름도다.
도 5는, 도 2의 로봇 제어 시스템이 로봇의 주행을 제어하는 제어 신호를 로봇에 제공하는 흐름을 나타내는 흐름도다.
도 6은, 도 2의 로봇 제어 시스템이 로봇 영상 정보를 함께 이용하여 생성된 제어 신호를 로봇에 제공하는 흐름을 나타내는 흐름도다.
도 7은, 일 실시 예에 따라 제2 카메라, 관성 센서 및 프로세서를 더 포함하는, 전자 장치 및 로봇 제어 시스템을 설명하기 위한 개념도다.
도 8은, 도 7의 센싱부가 획득한 깊이 정보 및 관성 정보에 기반하여 주행 보조 정보를 획득하고, 로봇에 전달하는 방법을 나타내는 흐름도다.
도 9는, 도 7의 로봇 제어 시스템이 로봇의 주행을 제어하는 제어 신호를 로봇에 제공하는 흐름을 나타내는 흐름도다.
도 10은 도 7의 로봇 제어 시스템이 로봇 영상 정보를 함께 이용하여 생성된 제어 신호를 로봇에 제공하는 흐름을 나타내는 흐름도다.
도 11은 다른 실시 예에 따른, 로봇에 장착되는 전자 장치 및 로봇 제어 시스템을 설명하기 위한 개념도다.
도 12는, 도 11의 전자 장치가 영상 정보를 로봇으로 전송하는 방법을 나타내는 흐름도다.
도 13은, 도 11의 로봇 제어 시스템이 로봇의 주행을 제어하는 제어 신호를 로봇에 제공하는 흐름을 나타내는 흐름도다.
도 14는, 도 11의 로봇 제어 시스템이 로봇 영상 정보를 함께 이용하여 생성된 제어 신호를 로봇에 제공하는 흐름을 나타내는 흐름도다.
1 and 2 are conceptual diagrams for explaining an electronic device and a robot control system mounted on a robot according to the present invention.
Figure 3 is a flowchart showing a method by which an electronic device controls a robot, according to an embodiment.
Figure 4 is a flowchart showing a method for a server to generate a control signal to control a robot, according to an embodiment.
FIG. 5 is a flowchart showing how the robot control system of FIG. 2 provides control signals for controlling the running of the robot to the robot.
FIG. 6 is a flowchart showing how the robot control system of FIG. 2 provides a control signal generated using robot image information to the robot.
FIG. 7 is a conceptual diagram for explaining an electronic device and a robot control system further including a second camera, an inertial sensor, and a processor, according to an embodiment.
FIG. 8 is a flowchart showing a method of acquiring driving assistance information based on depth information and inertia information acquired by the sensing unit of FIG. 7 and transmitting it to the robot.
FIG. 9 is a flowchart showing how the robot control system of FIG. 7 provides control signals for controlling the running of the robot to the robot.
FIG. 10 is a flowchart showing how the robot control system of FIG. 7 provides a control signal generated using robot image information to the robot.
Figure 11 is a conceptual diagram for explaining an electronic device mounted on a robot and a robot control system according to another embodiment.
FIG. 12 is a flowchart showing a method by which the electronic device of FIG. 11 transmits image information to a robot.
FIG. 13 is a flowchart showing how the robot control system of FIG. 11 provides control signals for controlling the running of the robot to the robot.
FIG. 14 is a flowchart showing how the robot control system of FIG. 11 provides a control signal generated using robot image information to the robot.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소에는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. Hereinafter, embodiments disclosed in the present specification will be described in detail with reference to the accompanying drawings. However, identical or similar components will be assigned the same reference numbers regardless of drawing symbols, and duplicate descriptions thereof will be omitted. The suffixes “module” and “part” for components used in the following description are given or used interchangeably only for the ease of preparing the specification, and do not have distinct meanings or roles in themselves. Additionally, in describing the embodiments disclosed in this specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in this specification, the detailed descriptions will be omitted. In addition, the attached drawings are only for easy understanding of the embodiments disclosed in this specification, and the technical idea disclosed in this specification is not limited by the attached drawings, and all changes included in the spirit and technical scope of the present invention are not limited. , should be understood to include equivalents or substitutes.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms containing ordinal numbers, such as first, second, etc., may be used to describe various components, but the components are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is said to be "connected" or "connected" to another component, it is understood that it may be directly connected to or connected to the other component, but that other components may exist in between. It should be. On the other hand, when it is mentioned that a component is “directly connected” or “directly connected” to another component, it should be understood that there are no other components in between.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. Singular expressions include plural expressions unless the context clearly dictates otherwise.

본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this application, terms such as "comprise" or "have" are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that this does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof.

본 발명은 로봇에 장착되는 전자 장치, 로봇 제어 시스템 및 방법을 제공하는 것으로서, 보다 구체적으로 본 발명은, 로봇에 장착되어 로봇이 주행하는 실내 공간에 관한 정보를 획득하고, 서버가 생성한 로봇의 주행을 제어하기 위한 제어 신호를 통해 로봇의 주행을 제어하는 전자 장치, 시스템 및 방법에 관한 것이다.The present invention provides an electronic device mounted on a robot, a robot control system, and a method, More specifically, the present invention relates to an electronic device, a system, and It's about method.

이하에서는, 첨부된 도면과 함께, 로봇에 장착되는 전자 장치 및 로봇 제어 시스템에 대하여 살펴보도록 한다. 도 1 및 도 2는, 본 발명에 따른 로봇에 장착되는 전자 장치 및 로봇 제어 시스템을 설명하기 위한 개념도다. Below, we will look at the electronic devices and robot control system mounted on the robot along with the attached drawings. 1 and 2 are conceptual diagrams for explaining an electronic device and a robot control system mounted on a robot according to the present invention.

예를 들어, 도 1에 도시된 것과 같이, 기술이 발전함에 따라 로봇의 활용도는 점차적으로 높아지고 있다. 종래 로봇은 특수한 산업분야(예를 들어, 산업 자동화 관련 분야)에서 활용되었으나, 점차적으로 인간이나 설비를 위해 유용한 작업을 수행할 수 있는 서비스 로봇으로 변모하고 있다.For example, as shown in Figure 1, as technology develops, the utilization of robots is gradually increasing. Conventionally, robots have been used in special industrial fields (for example, fields related to industrial automation), but they are gradually transforming into service robots that can perform useful tasks for humans or facilities.

이와 같이 다양한 서비스를 제공할 수 있는 로봇은, 부여된 임무를 수행하기 위하여 도 1에 도시된 것과 같은 공간(10)을 주행하도록 이루어질 수 있다. 로봇이 주행하는 공간의 종류에는 제한이 없으며, 필요에 따라 실내 공간 및 실외 공간 중 적어도 하나를 주행하도록 이루어질 수 있다. 예를 들어, 실내 공간은 백화점, 공항, 호텔, 학교, 빌딩, 지하철역, 기차역, 서점 등과 같이 다양한 공간일 수 있다. 로봇은, 이와 같이, 다양한 공간에 배치되어 인간에게 유용한 서비스를 제공하도록 이루어질 수 있다. 다만, 아래에서는 설명의 편의를 위하여 공간(10)은 실내 공간을 의미하는 것으로 가정한다.A robot capable of providing various services as described above may be configured to travel in a space 10 as shown in FIG. 1 in order to perform assigned tasks. There is no limit to the type of space in which the robot drives, and it can be made to drive in at least one of indoor space and outdoor space as needed. For example, indoor spaces may be various spaces such as department stores, airports, hotels, schools, buildings, subway stations, train stations, bookstores, etc. In this way, robots can be deployed in various spaces to provide useful services to humans. However, for convenience of explanation below, it is assumed that space 10 refers to an indoor space.

한편, 로봇을 이용하여 다양한 서비스를 제공하기 위해서는, 로봇을 정확하게 제어하는 것이 매우 중요한 요소이다. 이에, 본 발명은 로봇(100)에 장착된 전자 장치(110)를 이용하여 로봇(100)의 사양 및 종류와 관계없이, 서버(20)를 통해 로봇(100)을 제어할 수 있는 방법에 대하여 제안한다.Meanwhile, in order to provide various services using robots, accurate control of the robot is a very important factor. Accordingly, the present invention relates to a method of controlling the robot 100 through the server 20 using the electronic device 110 mounted on the robot 100, regardless of the specifications and type of the robot 100. suggest.

도 1 및 도 2에 도시된 것과 같이, 본 발명의 로봇 제어 시스템은 로봇(100)에 장착되는 전자 장치(110) 및 공간(10)에서 로봇(100)의 주행을 제어하기 위한 제어 신호를 생성하는 서버(20)를 포함할 수 있다. 이 때, 전자 장치(110)는 서버(20)와의 통신을 통해 로봇(100)의 주행을 제어할 수 있다.As shown in FIGS. 1 and 2, the robot control system of the present invention generates control signals for controlling the electronic device 110 mounted on the robot 100 and the movement of the robot 100 in the space 10. It may include a server 20 that does. At this time, the electronic device 110 can control the driving of the robot 100 through communication with the server 20.

일 실시 예에 따르면, 전자 장치(110)는 전자 장치(110)의 센싱부(120)로부터 수신되는 영상 정보, 로봇(100)으로부터 수신되는 영상 정보, 및 로봇(100)에 구비된 센서로부터 수신되는 정보 중 적어도 하나를 활용하여, 로봇(100)의 주행을 제어하거나, 로봇(100)에 대한 적절한 제어를 수행할 수 있다. According to one embodiment, the electronic device 110 includes image information received from the sensing unit 120 of the electronic device 110, image information received from the robot 100, and image information received from the sensor provided in the robot 100. By utilizing at least one of the available information, the driving of the robot 100 can be controlled or appropriate control of the robot 100 can be performed.

도 2를 참조하면, 일 실시 예에 따른 전자 장치(110)는, 센싱부(120), 통신부(130), 인터페이스부(140) 및 인증부(150) 중 적어도 하나를 포함할 수 있다.Referring to FIG. 2 , the electronic device 110 according to an embodiment may include at least one of a sensing unit 120, a communication unit 130, an interface unit 140, and an authentication unit 150.

일 실시 예에 따르면, 통신부(130)는, 서버(20)와 유선 또는 무선으로 통신할 수 있다. 통신부(130)는 서버(20)와의 통신을 통해, 센싱부(120)를 이용하여 획득한 영상 정보를 서버(20)로 송신하고, 서버(20)로부터 생성된 제어 신호를 수신할 수 있다.According to one embodiment, the communication unit 130 may communicate with the server 20 by wire or wirelessly. The communication unit 130 may transmit image information acquired using the sensing unit 120 to the server 20 and receive a control signal generated from the server 20 through communication with the server 20 .

여기에서, 서버(20)는, 클라우드 서버 또는 데이터베이스 중 적어도 하나를 포함하도록 구성될 수 있다. 한편, 서버(20)는, 전자 장치(110)로부터 수신한 데이터에 대한 데이터 처리 또는 데이터 연산 등을 수행할 수 있으며, 본 발명에서는 이러한 방식에 대한 특별한 제한을 두지 않는다.Here, the server 20 may be configured to include at least one of a cloud server or a database. Meanwhile, the server 20 may perform data processing or data operations on data received from the electronic device 110, and the present invention does not impose any special restrictions on this method.

또한, 서버(20)는 로봇(100)이 주행하는 공간(10)과 원격지에 존재할 수 있으나, 이에 한정되는 것은 아니며, 설치형 로봇(installed robot)의 경우, 서버(20)는 공간(10) 내에서 로봇(100)과 함께 배치되고 유선으로 전자 장치(110) 및/또는 로봇(100)과 연결될 수 있다.In addition, the server 20 may exist in a remote location from the space 10 in which the robot 100 runs, but is not limited to this. In the case of an installed robot, the server 20 is located within the space 10. It may be placed together with the robot 100 and connected to the electronic device 110 and/or the robot 100 by wire.

한편, 통신부(130)는 통신하는 디바이스의 통신 규격에 따라 다양한 통신 방식을 지원할 수 있다.Meanwhile, the communication unit 130 can support various communication methods depending on the communication standard of the communicating device.

예를 들어, 통신부(130)는, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced), 5G(5th Generation Mobile Telecommunication ), 블루투스(Bluetooth™RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra-Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus), 및 이더넷(ethernet) 기술 중 적어도 하나를 이용하여, 서버(20)와 통신하도록 이루어질 수 있다.For example, the communication unit 130 supports wireless LAN (WLAN), wireless-fidelity (Wi-Fi), wireless fidelity (Wi-Fi) Direct, digital living network alliance (DLNA), wireless broadband (WiBro), and WiMAX ( World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access), HSUPA (High Speed Uplink Packet Access), LTE (Long Term Evolution), LTE-A (Long Term Evolution-Advanced), 5G (5th Generation Mobile Telecommunication) , Bluetooth™ RFID (Radio Frequency Identification), Infrared Data Association (IrDA), UWB (Ultra-Wideband), ZigBee, NFC (Near Field Communication), Wi-Fi Direct, Wireless USB (Wireless Universal Serial Bus) ), and can be made to communicate with the server 20 using at least one of Ethernet technology.

다음으로, 일 실시 예에 따른 센싱부(120)는 로봇(100)이 주행하는 공간(10)에 대한 정보를 획득하도록 구성될 수 있다. 일 실시 예에 따르면, 센싱부(120)는 적어도 하나의 카메라 및 센서를 포함하고, 적어도 하나의 카메라 및 센서를 통해 로봇(100)이 주행하는 공간(10)에 대한 정보를 획득할 수 있다. 예를 들어, 센싱부(120)는 제1 카메라(121)를 이용하여, 로봇(100)이 주행하는 실내 공간(10)에 대한 영상 정보를 획득할 수 있다. Next, the sensing unit 120 according to one embodiment may be configured to obtain information about the space 10 in which the robot 100 runs. According to one embodiment, the sensing unit 120 includes at least one camera and a sensor, and can obtain information about the space 10 in which the robot 100 runs through the at least one camera and sensor. For example, the sensing unit 120 may use the first camera 121 to obtain image information about the indoor space 10 in which the robot 100 runs.

이 때, 제1 카메라(121)는 전자 장치(110) 상에서 로봇(100)의 전면과 정렬되도록 배치될 수 있다. 또한, 제1 카메라(121)는 로봇(100)의 전방, 측방 및 상방에 대한 영상 정보를 획득할 수 있는 광각 렌즈 또는 어안 렌즈를 포함할 수 있으나, 이에 한정되는 것은 아니다. 다만, 이에 대한 구체적인 설명은 아래의 도 7에 대한 설명에서 후술한다.At this time, the first camera 121 may be arranged on the electronic device 110 to be aligned with the front of the robot 100. Additionally, the first camera 121 may include a wide-angle lens or a fisheye lens that can acquire image information about the front, side, and top of the robot 100, but is not limited thereto. However, a detailed description of this will be provided later in the description of FIG. 7 below.

일 실시 예에 따른 센싱부(120)는 획득한 정보를 통신부(130)로 전달할 수 있다. 구체적으로 센싱부(120)는 획득한 정보가 통신부(130)를 통해 서버(20)로 송신되도록, 획득한 정보를 통신부(130)로 전달할 수 있다. 다른 실시 예에 따른 센싱부(120)는 획득한 정보를 인증부(150)로 전달할 수 있다. 구체적으로 센싱부(120)는 획득한 정보가 인증부(150)를 통해 통신부(130)로 전달되도록, 획득한 정보를 인증부(150)로 전달할 수 있다.The sensing unit 120 according to one embodiment may transmit the acquired information to the communication unit 130. Specifically, the sensing unit 120 may transmit the acquired information to the communication unit 130 so that the acquired information is transmitted to the server 20 through the communication unit 130. The sensing unit 120 according to another embodiment may transmit the acquired information to the authentication unit 150. Specifically, the sensing unit 120 may transmit the acquired information to the authentication unit 150 so that the acquired information is transmitted to the communication unit 130 through the authentication unit 150.

다음으로 인터페이스부(140)는, 로봇(100)과 전자 장치(110) 간의 데이터 통신을 수행하도록 구성될 수 있다. 본 발명에서 인터페이스부(140)는 도시된 바와 같이 로봇(100)과 통신할 수 있다.Next, the interface unit 140 may be configured to perform data communication between the robot 100 and the electronic device 110. In the present invention, the interface unit 140 can communicate with the robot 100 as shown.

일 실시 예에 따르면, 인터페이스부(140)는 로봇(100)과의 데이터 통신을 통해, 통신부(130)를 통해 서버(20)로부터 획득한 제어 신호를 로봇(100)으로 전달하도록 구성될 수 있다.According to one embodiment, the interface unit 140 may be configured to transmit a control signal obtained from the server 20 through the communication unit 130 to the robot 100 through data communication with the robot 100. .

다른 실시 예에 따르면, 인터페이스부(140)는 로봇(100)과의 데이터 통신을 통해, 인증부(150)로부터 전달된 정보를 로봇(100)으로 전달하도록 구성될 수 있다.According to another embodiment, the interface unit 140 may be configured to transmit information received from the authentication unit 150 to the robot 100 through data communication with the robot 100.

또 다른 실시 예에 따르면, 인터페이스부(140)는 로봇(100)으로부터, 로봇(100)이 획득한 정보를 수신할 수 있다. 예를 들어, 전자 장치(110)는 인터페이스부(140)를 통해 로봇(100)으로부터, 로봇(100)에 배치된 센서가 획득한 로봇 영상 정보를 수신할 수 있다.According to another embodiment, the interface unit 140 may receive information acquired by the robot 100 from the robot 100. For example, the electronic device 110 may receive robot image information acquired by a sensor disposed on the robot 100 from the robot 100 through the interface unit 140.

한편, 인터페이스부(140)는 통신하는 디바이스의 통신 규격에 따라 다양한 통신 방식을 지원할 수 있다.Meanwhile, the interface unit 140 can support various communication methods depending on the communication standard of the communicating device.

예를 들어, 인터페이스부(140)는, WLAN, Wi-Fi, Wi-Fi Direct, DLNA, 블루투스(Bluetooth™RFID, 적외선 통신, UWB, ZigBee, NFC, Wi-Fi Direct, Wireless USB, 이더넷(ethernet), CAN(controller area network), UART(universal asynchronous receiver/transmitter)와 같은 통신 기술 중 적어도 하나를 이용하여, 로봇(100)과 통신하도록 구성될 수 있다.For example, the interface unit 140 supports WLAN, Wi-Fi, Wi-Fi Direct, DLNA, Bluetooth™ RFID, infrared communication, UWB, ZigBee, NFC, Wi-Fi Direct, Wireless USB, and Ethernet. ), CAN (controller area network), and UART (universal asynchronous receiver/transmitter) may be configured to communicate with the robot 100 using at least one of communication technologies.

다음으로, 인증부(150)는 센싱부(120)가 획득한 정보를 암호화하고, 암호화된 데이터에 서버(20)가 인증할 수 있는 인증 정보를 삽입하도록 구성될 수 있다.Next, the authentication unit 150 may be configured to encrypt the information obtained by the sensing unit 120 and insert authentication information that the server 20 can authenticate into the encrypted data.

일 실시 예에 따른 인증부(150)는 기 설정된 확인 권한을 갖는 서버(20)가 센싱부(120)를 통해 획득한 영상 정보를 확인할 수 있도록 영상 정보에 대한 암호화를 수행할 수 있다.The authentication unit 150 according to one embodiment may perform encryption on image information so that the server 20 with preset verification authority can verify image information acquired through the sensing unit 120.

또한, 일 실시 예에 따른 인증부(150)는 암호화된 데이터에, 전자 장치(110) 및 로봇(100) 중 적어도 하나를 식별할 수 있는 인증 정보를 삽입할 수 있다. 이 때, 인증 정보는 전자 장치(110)의 고유한 일련번호, 로봇(100)의 고유한 일련번호, 로봇(100)의 종류, 로봇(100)의 사양, 로봇(100)에 부여된 임무 정보, 로봇(100)의 상태 정보(예를 들어, 전원 상태, 고장 유무, 배터리 상태 등), 전자 장치(110)와 로봇(100)의 통신 상태에 관한 정보 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니며 전자 장치(110) 및 로봇(100) 중 적어도 하나를 식별할 수 있는 다양한 정보로 이해될 수 있다.Additionally, the authentication unit 150 according to one embodiment may insert authentication information that can identify at least one of the electronic device 110 and the robot 100 into the encrypted data. At this time, the authentication information includes the unique serial number of the electronic device 110, the unique serial number of the robot 100, the type of the robot 100, the specifications of the robot 100, Among the mission information assigned to the robot 100, status information of the robot 100 (e.g., power status, failure status, battery status, etc.), information regarding the communication status between the electronic device 110 and the robot 100 It may include at least one, but is not limited to this, and may be understood as various information that can identify at least one of the electronic device 110 and the robot 100.

일 실시 예에 따르면, 서버(20)는 통신부(130)를 통해 수신한 데이터(또는, 영상 정보)에 대한 복호화를 수행함으로써, 영상 정보를 확인할 수 있다. 또한, 서버(20)는 영상 정보에 포함된 인정 정보를 식별함으로써, 전자 장치(110) 및 로봇(100) 중 적어도 하나에 대해 식별할 수 있다. 단, 이에 대한 구체적인 설명은 후술한다.According to one embodiment, the server 20 may confirm image information by performing decoding on data (or image information) received through the communication unit 130. Additionally, the server 20 can identify at least one of the electronic device 110 and the robot 100 by identifying recognition information included in the image information. However, a detailed explanation of this will be provided later.

도 3은, 일 실시 예에 따른 전자 장치가 로봇을 제어하는 방법을 나타내는 흐름도다. 도 4는, 일 실시 예에 따른 서버가 로봇을 제어하기 위한 제어 신호를 생성하는 방법을 나타내는 흐름도다. 도 5는, 도 2의 로봇 제어 시스템이 로봇의 주행을 제어하는 제어 신호를 로봇에 제공하는 흐름을 나타내는 흐름도다.Figure 3 is a flowchart showing a method by which an electronic device controls a robot, according to an embodiment. Figure 4 is a flowchart showing a method for a server to generate a control signal to control a robot, according to an embodiment. FIG. 5 is a flowchart showing how the robot control system of FIG. 2 provides control signals for controlling the running of the robot to the robot.

도 2 내지 도 5를 함께 참조하면, 일 실시 예에 따른 전자 장치(110)는 센싱부(120)를 통해 획득한 영상 정보를, 통신부(130)를 통해 서버(20)로 전달하고, 서버(20)가 생성한 제어 신호를 인터페이스부(140)를 통해 로봇(100)으로 전달함으로써, 공간(10)에서 로봇(100)의 주행을 제어할 수 있다.Referring to FIGS. 2 to 5 together, the electronic device 110 according to one embodiment transmits image information acquired through the sensing unit 120 to the server 20 through the communication unit 130, and the server ( By transmitting the control signal generated by 20 to the robot 100 through the interface unit 140, the movement of the robot 100 in the space 10 can be controlled.

일 실시 예에 따르면, 전자 장치(110)는 동작 301에서, 실내 공간(10)에서 로봇(100)의 주행을 위한 시각적 측위(visual localization)를 수행하기 위하여, 센싱부(120)를 이용하여 로봇(100)이 주행하는 실내 공간(10)에 대한 영상 정보를 획득할 수 있다.According to one embodiment, in operation 301, the electronic device 110 uses the sensing unit 120 to perform visual localization for driving the robot 100 in the indoor space 10. Image information about the indoor space 10 in which 100 drives can be obtained.

예를 들어, 전자 장치(110)는 동작 301에서 센싱부(120)에 포함된 제1 카메라(121)를 통해 실내 공간(10)에 대한 영상을 획득할 수 있다. 다른 예를 들면, 전자 장치(110)는 동작 301에서 센싱부(120)를 통해 로봇의 주행 속도를 획득할 수 있다.For example, the electronic device 110 may acquire an image of the indoor space 10 through the first camera 121 included in the sensing unit 120 in operation 301. For another example, the electronic device 110 may obtain the traveling speed of the robot through the sensing unit 120 in operation 301.

일 실시 예에 따르면, 전자 장치(110)는, 서버(20)가 영상 정보를 확인 가능하도록, 동작 501에서 인증부(150)를 통해 영상 정보를 암호화함으로써 암호화된 데이터를 생성할 수 있다. 또한, 일 실시 예에 따른 전자 장치(110)는, 서버(20)가 전자 장치(110) 및 로봇(100) 중 적어도 하나를 식별 가능하도록, 동작 501에서 인증부(150)를 통해, 암호화된 데이터에 인증 정보를 삽입할 수 있다.According to one embodiment, the electronic device 110 may generate encrypted data by encrypting image information through the authentication unit 150 in operation 501 so that the server 20 can verify the image information. In addition, the electronic device 110 according to one embodiment is configured to use an encrypted code through the authentication unit 150 in operation 501 so that the server 20 can identify at least one of the electronic device 110 and the robot 100. Authentication information can be inserted into the data.

일 실시 예에 따르면, 전자 장치(110)는 동작 303에서, 동작 301을 통해 획득한 영상 정보를 통신부(130)를 통해 서버(20)로 전송할 수 있다. 예를 들어, 전자 장치(110)는 동작 303에서, 제1 카메라(121)를 통해 획득한 로봇(100)의 전방, 측방 및 상방 중 적어도 하나에 대한 영상 정보를, 통신부(130)를 통해 서버(20)로 전송할 수 있다.According to one embodiment, in operation 303, the electronic device 110 may transmit the image information acquired through operation 301 to the server 20 through the communication unit 130. For example, in operation 303, the electronic device 110 sends image information about at least one of the front, side, and top of the robot 100 obtained through the first camera 121 to the server through the communication unit 130. It can be transmitted to (20).

이 때, 동작 303에서 서버(20)로 전송되는 영상 정보는, 동작 501에서 인증부(150)를 통해 암호화되고, 인증 정보가 삽입된 데이터로 이해될 수 있다.At this time, the image information transmitted to the server 20 in operation 303 may be understood as data that is encrypted through the authentication unit 150 in operation 501 and into which authentication information is inserted.

일 실시 예에 따르면, 서버(20)는 동작 503에서, 동작 303을 통해 전자 장치(110)로부터 영상 정보를 수신하는 것에 응답하여, 영상 정보에 대한 복호화를 수행함으로써 영상 정보를 확인할 수 있다. 또한, 서버(20)는 동작 503에서, 전자 장치(110)로부터 영상 정보를 수신하는 것에 응답하여, 암호화된 영상 정보에 삽입된 인증 정보를 확인함으로써, 전자 장치(110) 및 로봇(100) 중 적어도 하나를 식별할 수 있다.According to one embodiment, in operation 503, the server 20 may confirm the image information by performing decoding on the image information in response to receiving image information from the electronic device 110 through operation 303. Additionally, in operation 503, the server 20 verifies the authentication information inserted in the encrypted image information in response to receiving image information from the electronic device 110, thereby enabling the electronic device 110 and the robot 100 to At least one can be identified.

다른 실시 예(미도시)에 따르면, 동작 501의 암호화 동작 및 동작 503의 복호화 동작은 생략될 수 있다.According to another embodiment (not shown), the encryption operation of operation 501 and the decryption operation of operation 503 may be omitted.

일 실시 예에 따르면, 서버(20)는 동작 401에서 전자 장치(110)로부터 수신한 영상 정보를 이용하여 실내 공간(10)에서 로봇(100)에 대한 시각적 측위(visual localization)를 수행할 수 있다. 구체적으로, 서버(20)는 동작 401에서 전자 장치(110)로부터 수신한 영상 정보를 이용하여 실내 공간(10)에서 로봇(100)의 위치를 추정하는 시각적 측위를 수행할 수 있다.According to one embodiment, the server 20 may perform visual localization for the robot 100 in the indoor space 10 using image information received from the electronic device 110 in operation 401. . Specifically, in operation 401, the server 20 may perform visual positioning to estimate the location of the robot 100 in the indoor space 10 using image information received from the electronic device 110.

나아가, 서버(20)는 전자 장치(110)로부터 수신한 영상 정보와, 서버(20)에 저장된 지도 정보를 비교하여, 로봇(100)의 현재 위치에 대응되는 위치 정보를 추출할 수 있다. 이때, 공간(10)에 대한 지도 정보는 사전에 공간(10)을 이동하는 적어도 하나의 로봇에 의해, SLAM(Simultaneous Localization and Mapping)에 기반하여 작성된 지도를 포함할 수 있다. 특히, 공간(10)에 대한 지도는, 이전에 획득한 공간(10)에 대한 영상 정보에 기반하여 기 생성된 지도일 수 있다. 이 경우, 서버(20)는 i)영상 정보와 기 생성된 지도를 구성하는 이미지들 간의 이미지 비교를 이용하여, 영상 정보와 가장 비슷한 이미지를 특정하고, ii)특정된 이미지에 매칭된 위치 정보를 획득하는 방식으로 로봇(100)의 위치 정보를 특정할 수 있다.Furthermore, the server 20 may compare the image information received from the electronic device 110 and the map information stored in the server 20 to extract location information corresponding to the current location of the robot 100. At this time, the map information about the space 10 may include a map created in advance by at least one robot moving the space 10 based on SLAM (Simultaneous Localization and Mapping). In particular, the map for the space 10 may be a map previously generated based on previously acquired image information for the space 10. In this case, the server 20 i) uses image comparison between the image information and the images constituting the previously generated map to specify the image most similar to the image information, and ii) provides location information matched to the specified image. The location information of the robot 100 can be specified by obtaining it.

즉, 서버(20)는 동작 401에서, 전자 장치(110)로부터 수신한 영상 정보를 이용한 시각적 측위를 통해, 공간(10) 내에서 로봇(100)의 현재 위치를 추정할 수 있다.That is, in operation 401, the server 20 may estimate the current location of the robot 100 within the space 10 through visual positioning using image information received from the electronic device 110.

일 실시 예에 따르면, 서버(20)는 동작 403에서, 동작 401에서의 시각적 측위의 결과에 기반하여, 실내 공간(10)에서 로봇(100)의 주행을 제어하기 위한 제어 신호를 생성할 수 있다. 구체적으로, 서버(20)는 동작 403에서, 동작 401의 시각적 측위를 통해 획득한 로봇(100)의 위치 정보에 근거하여, 실내 공간(10)에서 로봇(100)의 주행을 제어하기 위한 제어 신호를 생성할 수 있다.According to one embodiment, in operation 403, the server 20 may generate a control signal for controlling the movement of the robot 100 in the indoor space 10 based on the result of the visual positioning in operation 401. . Specifically, in operation 403, the server 20 sends a control signal for controlling the running of the robot 100 in the indoor space 10 based on the location information of the robot 100 obtained through visual positioning in operation 401. can be created.

이 때, 제어 신호는 로봇(100)의 주행 방향, 주행 속도 및 주행 경로 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니며, 로봇(100)의 주행을 위한 다양한 제어 명령을 포함하는 것으로 이해될 수 있다.At this time, the control signal may include at least one of the traveling direction, traveling speed, and traveling path of the robot 100, but is not limited thereto, and is understood to include various control commands for traveling the robot 100. It can be.

일 실시 예에 따르면, 서버(20)는 동작 305에서 로봇(100)의 주행을 제어하기 위한 제어 신호를 전자 장치(110)로 송신할 수 있다. 한편, 전자 장치(110)는 동작 305에서 서버(20)로부터, 시각적 측위의 결과에 기반하여 생성된 제어 신호를 통신부(130)를 통해 수신할 수 있다.According to one embodiment, the server 20 may transmit a control signal for controlling the driving of the robot 100 to the electronic device 110 in operation 305. Meanwhile, in operation 305, the electronic device 110 may receive a control signal generated based on the result of visual positioning from the server 20 through the communication unit 130.

일 실시 예에 따르면, 전자 장치(110)는 동작 307에서 인터페이스부(140)를 통해 제어 신호를 로봇(100)으로 전송할 수 있다. 보다 구체적으로, 전자 장치(110)는 동작 307에서, 동작 305에서 서버(20)로부터 수신한 제어 신호를, 인터페이스부(140)를 통해 로봇(100)으로 전달할 수 있다.According to one embodiment, the electronic device 110 may transmit a control signal to the robot 100 through the interface unit 140 in operation 307. More specifically, the electronic device 110 may transmit the control signal received from the server 20 in operations 307 and 305 to the robot 100 through the interface unit 140.

일 실시 예에 따른 전자 장치(110)는 동작 307에서, 서버(20)로부터 통신부(130)를 통해 수신한 제어 신호를, 인터페이스부(140)를 통해 로봇(100)으로 전달함으로써, 실내 공간(10) 내에서의 로봇(100)의 주행을 제어할 수 있다.In operation 307, the electronic device 110 according to one embodiment transmits the control signal received from the server 20 through the communication unit 130 to the robot 100 through the interface unit 140, thereby maintaining the indoor space ( 10) The running of the robot 100 within the space can be controlled.

상술한 바와 같이, 본 발명에 따른 전자 장치(110)는 실내 공간(10)에 대한 영상 정보를 서버(20)로 전송하고, 서버(20)가 영상 정보를 이용한 시각적 측위에 기반하여 생성한 제어 신호를 로봇(100)을 전달함으로써, 실내 공간(10)에서 로봇(100)의 주행을 제어할 수 있다.As described above, the electronic device 110 according to the present invention transmits image information about the indoor space 10 to the server 20, and the server 20 generates control based on visual positioning using the image information. By transmitting a signal to the robot 100, the driving of the robot 100 in the indoor space 10 can be controlled.

도 6은, 도 2의 로봇 제어 시스템이 로봇 영상 정보를 함께 이용하여 생성된 제어 신호를 로봇에 제공하는 흐름을 나타내는 흐름도다.FIG. 6 is a flowchart showing how the robot control system of FIG. 2 provides a control signal generated using robot image information to the robot.

도 2 내지 도 6을 함께 참조하면, 일 실시 예에 따른 전자 장치(110)는 로봇(100)으로부터 수신한 로봇 영상 정보를 영상 정보와 함께 서버(20)로 전송할 수 있다. 보다 구체적으로, 전자 장치(110)는 로봇(100)으로부터 수신한 로봇 영상 정보를 영상 정보와 함께 서버(20)로 전송함으로써, 영상 정보 및 로봇 영상 정보를 이용한 시각적 측위에 기반하여 생성된 제어 신호를 로봇(100)으로 전달할 수 있다. 다만, 상술한 구성과 동일하거나 실질적으로 동일한 구성에 대해서는 동일한 참조번호를 사용하였으며, 중복되는 설명은 생략한다.Referring to FIGS. 2 to 6 together, the electronic device 110 according to an embodiment may transmit robot image information received from the robot 100 to the server 20 along with the image information. More specifically, the electronic device 110 transmits the robot image information received from the robot 100 to the server 20 together with the image information, thereby generating a control signal based on visual positioning using the image information and the robot image information. can be transmitted to the robot 100. However, the same reference numbers are used for components that are identical or substantially the same as the above-described components, and overlapping descriptions are omitted.

일 실시 예에 따르면, 로봇(100)은 동작 601에서 로봇(100)에 배치된 로봇 센서를 통해 로봇 영상 정보를 획득할 수 있다. 이 때, 로봇 영상 정보는 로봇(100)에 배치된 로봇 센서를 통해 로봇(100)이 주행하는 실내 공간(10)에 대해 획득한 영상 정보로 이해될 수 있다.According to one embodiment, the robot 100 may acquire robot image information through a robot sensor disposed on the robot 100 in operation 601. At this time, the robot image information can be understood as image information acquired about the indoor space 10 in which the robot 100 runs through a robot sensor disposed on the robot 100.

한편, 로봇(100)에 배치된 로봇 센서는 전자 장치(110)의 제1 카메라(121)와 이격되도록 배치될 수 있다. 예를 들어, 로봇 센서는 로봇(100) 상에서 지면으로부터 제1 높이를 갖도록 배치되고, 전자 장치(110)의 제1 카메라(121)는 전자 장치(110) 상에서 제1 높이보다 높은 제2 높이를 갖도록 배치될 수 있다. 다른 예를 들면, 전자 장치(110)의 제1 카메라(121)는 로봇(100)의 전면을 향하도록 배치되고, 로봇(100)의 로봇 센서는 로봇(100)의 후면을 향하도록 배치될 수 있으나, 제1 카메라(121)와 로봇 센서의 배치가 상술한 예시에 한정되는 것은 아니다.Meanwhile, the robot sensor disposed on the robot 100 may be disposed to be spaced apart from the first camera 121 of the electronic device 110. For example, the robot sensor is arranged to have a first height from the ground on the robot 100, and the first camera 121 of the electronic device 110 has a second height higher than the first height on the electronic device 110. It can be arranged to have For another example, the first camera 121 of the electronic device 110 may be arranged to face the front of the robot 100, and the robot sensor of the robot 100 may be arranged to face the rear of the robot 100. However, the arrangement of the first camera 121 and the robot sensor is not limited to the above-described examples.

일 실시 예에 따르면, 전자 장치(110)는 동작 603에서 로봇(100)으로부터 로봇(100)의 센서를 통해 획득한 로봇 영상 정보를, 인터페이스부(140)를 통해 수신할 수 있다. According to one embodiment, the electronic device 110 may receive robot image information acquired through a sensor of the robot 100 from the robot 100 through the interface unit 140 in operation 603.

나아가, 전자 장치(110)는 동작 605에서, 영상 정보와 로봇 영상 정보를 함께 통신부(130)를 통해 서버(20)로 전송할 수 있다. 보다 구체적으로, 전자 장치(110)는 동작 605에서, 센싱부(120)를 통해 획득한 영상 정보 및 로봇(100)으로부터 획득한 로봇 영상 정보를 함께, 통신부(130)를 통해 서버(20)로 전송할 수 있다. 이 때, 영상 정보와 로봇 영상 정보는 순차적으로 전송되거나, 동시에 전송될 수 있다.Furthermore, in operation 605, the electronic device 110 may transmit both image information and robot image information to the server 20 through the communication unit 130. More specifically, in operation 605, the electronic device 110 transmits the image information acquired through the sensing unit 120 and the robot image information acquired from the robot 100 to the server 20 through the communication unit 130. Can be transmitted. At this time, the image information and robot image information may be transmitted sequentially or simultaneously.

일 실시 예에 따른 서버(20)는 전자 장치(110)로부터 수신한 영상 정보 및 로봇 영상 정보를 이용하여 시각적 측위를 수행하고, 시각적 측위의 결과에 기반하여, 로봇(100)의 주행을 제어하기 위한 제어 신호를 생성할 수 있다. 보다 구체적으로, 서버(20)는 전자 장치(110)로부터, 서로 다른 위치에서 획득한 영상 정보 및 로봇 영상 정보를 이용하여 시각적 측위를 수행하고, 시각적 측위의 결과에 기반하여 제어 신호를 생성할 수 있다.The server 20 according to one embodiment performs visual positioning using image information and robot image information received from the electronic device 110, and controls the driving of the robot 100 based on the results of the visual positioning. A control signal can be generated for More specifically, the server 20 may perform visual positioning using image information and robot image information acquired at different locations from the electronic device 110, and generate a control signal based on the results of the visual positioning. there is.

즉, 본 발명에 따른 전자 장치(110)는 센싱부(120)를 통해 획득한 영상 정보 및 로봇(100)으로부터 수신한 로봇 영상 정보를 서버(20)로 전송하고, 서버(20)가 영상 정보 및 로봇 영상 정보를 이용한 시각적 측위의 결과에 기반하여 생성한 제어 신호를 로봇(100)으로 전달함으로써, 공간(10)에서의 로봇(100)의 주행을 제어할 수 있다.That is, the electronic device 110 according to the present invention transmits the image information acquired through the sensing unit 120 and the robot image information received from the robot 100 to the server 20, and the server 20 transmits the image information. And by transmitting a control signal generated based on the result of visual positioning using robot image information to the robot 100, the driving of the robot 100 in the space 10 can be controlled.

도 7은, 일 실시 예에 따라 제2 카메라, 관성 센서 및 프로세서를 더 포함하는, 전자 장치 및 로봇 제어 시스템을 설명하기 위한 개념도다. 도 8은, 도 7의 센싱부가 획득한 깊이 정보 및 관성 정보에 기반하여 주행 보조 정보를 획득하고, 로봇에 전달하는 방법을 나타내는 흐름도다. 도 9는, 도 7의 로봇 제어 시스템이 로봇의 주행을 제어하는 제어 신호를 로봇에 제공하는 흐름을 나타내는 흐름도다.FIG. 7 is a conceptual diagram for explaining an electronic device and a robot control system further including a second camera, an inertial sensor, and a processor, according to an embodiment. FIG. 8 is a flowchart showing a method of acquiring driving assistance information based on depth information and inertia information acquired by the sensing unit of FIG. 7 and transmitting it to the robot. FIG. 9 is a flowchart showing how the robot control system of FIG. 7 provides control signals for controlling the running of the robot to the robot.

도 7 내지 도 9를 함께 참조하면, 일 실시 예에 따른 전자 장치(110)는 제1 카메라(121)를 통해 획득한 영상 정보, 제2 카메라(122)를 통해 획득한 깊이 정보, 및 관성 센서(123)를 통해 획득한 관성 정보 중 적어도 일부를 서버(20)에 전송하고, 전송된 정보를 이용한 시각적 측위에 기반하여 생성된 제어 신호를 서버(20)에서 로봇(100)으로 전달할 수 있다. 다만, 상술한 구성과 동일하거나 실질적으로 동일한 구성에 대해서는 동일한 참조번호를 사용하였으며, 중복되는 설명은 생략한다.Referring to FIGS. 7 to 9 together, the electronic device 110 according to one embodiment includes image information acquired through the first camera 121, depth information acquired through the second camera 122, and an inertial sensor. At least part of the inertial information obtained through 123 may be transmitted to the server 20, and a control signal generated based on visual positioning using the transmitted information may be transmitted from the server 20 to the robot 100. However, the same reference numbers are used for components that are identical or substantially the same as the above-described components, and overlapping descriptions are omitted.

일 실시 예에 따르면, 전자 장치(110)는 센싱부(120)와 연결되는 프로세서(160)를 포함할 수 있다.According to one embodiment, the electronic device 110 may include a processor 160 connected to the sensing unit 120.

일 실시 예에 따른 프로세서(160)는, 본 발명과 관련된 로봇(100)에 장착되는 전자 장치(110)의 전반적인 동작을 제어하도록 구성될 수 있다. 예를 들어, 프로세서(160)는 위에서 살펴본 전자 장치(110)의 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리할 수 있다.The processor 160 according to one embodiment may be configured to control the overall operation of the electronic device 110 mounted on the robot 100 related to the present invention. For example, the processor 160 may process signals, data, information, etc. input or output through the components of the electronic device 110 discussed above.

특히, 프로세서(160)는 센싱부(120)를 통해 획득한 정보를 처리하고, 로봇(100)의 자율 주행을 보조하기 위한 주행 보조 정보를 생성할 수 있다. 이 때, 주행 보조 정보는 로봇(100)이 주행하는 공간(10)에서 로봇(100)과 인접한 장애물에 관한 정보를 포함할 수 있다.In particular, the processor 160 may process information obtained through the sensing unit 120 and generate driving assistance information to assist the autonomous driving of the robot 100. At this time, the driving assistance information may include information about obstacles adjacent to the robot 100 in the space 10 in which the robot 100 drives.

일 실시 예에 따르면, 센싱부(120)는 공간(10)에 대한 영상 정보를 획득하는 제1 카메라(121), 공간(10)에 대한 깊이 정보를 획득하는 제2 카메라(122) 및 로봇(100)의 관성 정보를 획득하는 관성 센서(123) 중 적어도 하나를 포함할 수 있다. According to one embodiment, the sensing unit 120 includes a first camera 121 that acquires image information about the space 10, a second camera 122 that acquires depth information about the space 10, and a robot ( It may include at least one of the inertial sensors 123 that acquire inertial information of 100).

일 실시 예에 따르면, 전자 장치(110)는 동작 801에서 센싱부(120)를 통해 공간(10)에 대한 깊이 정보 및 로봇(100)의 관성 정보를 획득할 수 있다. 보다 구체적으로, 전자 장치(110)는 동작 801에서 제2 카메라(122)를 통해 공간(10)에 대한 깊이 정보를 획득하고, 관성 센서(123)를 통해 로봇(100)의 관성 정보를 획득할 수 있다.According to one embodiment, the electronic device 110 may acquire depth information about the space 10 and inertia information of the robot 100 through the sensing unit 120 in operation 801. More specifically, in operation 801, the electronic device 110 acquires depth information about the space 10 through the second camera 122 and acquires inertial information of the robot 100 through the inertial sensor 123. You can.

일 실시 예에 따르면, 센싱부(120)에 포함되는 제1 카메라(121)는 서버(20)가 로봇(100)에 대한 시각적 측위를 수행하기 위한, 공간(10)에 대한 영상 정보를 획득할 수 있다. 이 때, 제1 카메라(121)는 로봇(100)의 전방, 측방 및 상방의 영상 정보를 획득할 수 있다. 예를 들어, 제1 카메라(121)는, 수직 화각 130도 이상, 수평 화각 180도 이상의 화각(FOV(field of view))을 갖는 렌즈(예: 광각 렌즈, 어안 렌즈)를 포함할 수 있다.According to one embodiment, the first camera 121 included in the sensing unit 120 is used to obtain image information about the space 10 for the server 20 to perform visual positioning for the robot 100. You can. At this time, the first camera 121 can acquire image information in front, on the sides, and above the robot 100. For example, the first camera 121 may include a lens (eg, a wide-angle lens, a fisheye lens) having a field of view (FOV) of 130 degrees or more vertically and 180 degrees or more horizontally.

일 실시 예에 따르면, 센싱부(120)의 제1 카메라(121)는 로봇(100)의 전면과 정렬되도록 배치되는 제1-1 카메라(121A) 및 전자 장치(110)의 상면에 배치되는 제1-2 카메라(121B)를 포함할 수 있다. 이때, 전자 장치(110)는 제1-1 카메라(121A)를 통해 로봇(100)의 전방 및 측방에 대한 영상 정보를 획득하고, 제1-2 카메라(121B)를 통해 로봇(100)의 상방에 대한 영상 정보를 획득할 수 있다. 즉, 센싱부(120)는 제1-1 카메라(121A) 및 제1-2 카메라(121B)를 통해 로봇(100)이 주행하는 실내 공간(10)의 전방, 측방 및 상방 대한 영상 정보를 획득할 수 있다.According to one embodiment, the first camera 121 of the sensing unit 120 is a 1-1 camera 121A arranged to be aligned with the front of the robot 100 and a first camera 121A arranged on the upper surface of the electronic device 110. It may include 1-2 cameras (121B). At this time, the electronic device 110 acquires image information about the front and sides of the robot 100 through the 1-1 camera 121A and the upper side of the robot 100 through the 1-2 camera 121B. You can obtain image information about . That is, the sensing unit 120 acquires image information about the front, side, and top of the indoor space 10 where the robot 100 runs through the 1-1 camera 121A and the 1-2 camera 121B. can do.

일 실시 예에 따르면, 센싱부(120)에 포함되는 제2 카메라(122)는 실내 공간(10)에 대한 깊이 정보를 획득하는 깊이 카메라(depth camera)로 이해될 수 있다. 예를 들어, 제2 카메라(122)는 2개 이상의 이미지 센서를 이용하여 생성한 입체 영상을 이용하는 스테레오 방식의 깊이 카메라, 광 신호의 지연 시간을 이용하는 ToF(time-of flight) 방식의 깊이 카메라, 또는 구조화된 빛을 대상에 투사하는 structured pattern 방식의 깊이 카메라 중 하나로 참조될 수 있으나, 이에 한정되는 것은 아니다.According to one embodiment, the second camera 122 included in the sensing unit 120 may be understood as a depth camera that acquires depth information about the indoor space 10. For example, the second camera 122 may be a stereo depth camera using a three-dimensional image generated using two or more image sensors, a time-of-flight (ToF) depth camera using the delay time of an optical signal, Alternatively, it may be referred to as one of the structured pattern type depth cameras that project structured light onto an object, but is not limited to this.

일 실시 예에 따르면, 센싱부(120)에 포함되는 제2 카메라(122)는 로봇(100)의 전방을 향하도록 배치되는 제2-1 카메라(122A) 및 로봇(100)의 후방을 향하도록 배치되는 제2-2 카메라(122B)를 포함할 수 있다. 나아가, 전자 장치(110)는 제2-1 카메라(122A)를 통해 로봇(100)의 전방 공간에 대한 깊이 정보를 획득하고, 제2-2 카메라(122B)를 통해 로봇(100)의 후방 공간에 대한 깊이 정보를 획득할 수 있다. 이 때, 제2-1 카메라(122A) 및 제2-2 카메라(122B)는 각각, 수직 화각 90도 이내, 수평 화각 90도 이내의 화각(FOV(field of view))을 갖는 렌즈를 포함할 수 있다.According to one embodiment, the second camera 122 included in the sensing unit 120 is positioned to face the rear of the robot 100 and the 2-1 camera 122A is arranged to face the front of the robot 100. It may include a 2-2 camera (122B) disposed. Furthermore, the electronic device 110 acquires depth information about the front space of the robot 100 through the 2-1 camera 122A and the rear space of the robot 100 through the 2-2 camera 122B. Depth information can be obtained. At this time, the 2-1 camera 122A and the 2-2 camera 122B may each include a lens having a vertical field of view (FOV) within 90 degrees and a horizontal field of view within 90 degrees. You can.

일 실시 예에 따르면, 센싱부(120)는 로봇(100)의 주행에 대한 관성 정보를 획득하는 관성 센서(123)(또는, IMU(inertial measurement unit) 센서)를 포함할 수 있다. 일 실시 예에 따른 전자 장치(110)는 센싱부(120)에 포함된 관성 센서(123)를 통해 로봇(100)의 관성력을 측정할 수 있다.According to one embodiment, the sensing unit 120 may include an inertial sensor 123 (or an inertial measurement unit (IMU) sensor) that acquires inertial information about the running of the robot 100. The electronic device 110 according to one embodiment may measure the inertial force of the robot 100 through the inertial sensor 123 included in the sensing unit 120.

일 실시 예에 따른 관성 센서(123)는 가속도 센서, 자이로 센서 및 지자기 센서를 포함할 수 있다. 일 실시 예에 따른 관성 센서(123)는 가속도 센서를 이용하여 가속도를 측정하고, 자이로 센서를 이용하여 각속도를 측정하고, 지자기 센서를 통해 획득한 가속도 및 각속도를 보정함으로써, 로봇(100)의 관성력 또는 기울어진 각도를 측정할 수 있다.The inertial sensor 123 according to one embodiment may include an acceleration sensor, a gyro sensor, and a geomagnetic sensor. The inertial sensor 123 according to an embodiment measures acceleration using an acceleration sensor, measures angular velocity using a gyro sensor, and corrects the acceleration and angular velocity obtained through a geomagnetic sensor, thereby increasing the inertial force of the robot 100. Alternatively, the tilt angle can be measured.

일 실시 예에 따르면, 프로세서(160)는 동작 803에서, 제2 카메라(122)로부터 수신한 깊이 정보 및 관성 센서(123)로부터 수신한 관성 정보를 이용하여, 로봇(100)의 주행을 보조하는 주행 보조 정보를 생성할 수 있다. 예를 들어, 프로세서(160)는 제2 카메라(122)로부터 수신한 공간(10)에 대한 깊이 정보 및 관성 센서(123)로부터 수신한 관성 정보를 이용하여, 동작 803에서 공간(10) 내에서 로봇(100)과 인접한 장애물에 관한 정보(예: 장애물의 위치, 장애물의 크기)를 생성할 수 있다.According to one embodiment, in operation 803, the processor 160 assists the running of the robot 100 using the depth information received from the second camera 122 and the inertial information received from the inertial sensor 123. Driving assistance information can be generated. For example, the processor 160 uses the depth information about the space 10 received from the second camera 122 and the inertial information received from the inertial sensor 123, within the space 10 in operation 803. Information about obstacles adjacent to the robot 100 (e.g., location of obstacle, size of obstacle) may be generated.

일 실시 예에 따르면, 전자 장치(110)는 동작 901에서 통신부(130)를 통해 깊이 정보 및 관성 정보를 서버(20)로 전송할 수 있다. 보다 구체적으로, 전자 장치(110)는, 서버(20)가 영상 정보와 함께 깊이 정보 및 관성 정보를 이용한 시각적 측위에 기반하여 제어 신호를 생성하도록, 깊이 정보 및 관성 정보를 서버(20)로 전송할 수 있다.According to one embodiment, the electronic device 110 may transmit depth information and inertia information to the server 20 through the communication unit 130 in operation 901. More specifically, the electronic device 110 transmits depth information and inertial information to the server 20 so that the server 20 generates a control signal based on visual positioning using depth information and inertial information along with image information. You can.

일 실시 예에 따르면, 서버(20)는 동작 401 및 동작 403에서 전자 장치(110)로부터 수신한 영상 정보와, 깊이 정보 및 관성 정보 중 적어도 하나를 이용한 시각적 측위에 기반하여 로봇(100)의 주행을 제어하기 위한 제어 신호를 생성할 수 있다. 예를 들어, 서버(20)는 전자 장치(110)로부터 수신한 영상 정보와 깊이 정보를 이용한 시각적 측위에 기반하여 제어 신호를 생성할 수 있다. 다른 예를 들어, 서버(20)는 전자 장치(110)로부터 수신한 영상 정보와 로봇(100)의 관성 정보를 이용한 시각적 측위에 기반하여 제어 신호를 생성할 수 있다.According to one embodiment, the server 20 drives the robot 100 based on visual positioning using image information received from the electronic device 110 in operations 401 and 403, and at least one of depth information and inertial information. A control signal to control can be generated. For example, the server 20 may generate a control signal based on visual positioning using image information and depth information received from the electronic device 110. For another example, the server 20 may generate a control signal based on visual positioning using image information received from the electronic device 110 and inertial information of the robot 100.

일 실시 예에 따르면, 전자 장치(110)는 동작 805에서, 주행 보조 정보 및 제어 신호 중 적어도 하나를 인터페이스부(140)를 통해 로봇(100)으로 전달할 수 있다. 예를 들어, 전자 장치(110)는 동작 805에서 주행 보조 정보 및 제어 신호를 함께 인터페이스부(140)를 통해 로봇(100)으로 전송할 수 있다. 다른 예를 들어, 전자 장치(110)는 동작 805에서 주행 보조 정보와 제어 신호를 순차적으로 인터페이스부(140)를 통해 로봇(100)으로 전송할 수 있다. 또 다른 예를 들면, 전자 장치(110)는 동작 803을 통해 생성한 주행 보조 정보를 로봇(100)으로 전송하고, 일정한 시간이 경과한 이후 서버(20)로부터 전달된 제어 신호를 로봇(100)으로 전송할 수 있다. 다만, 전자 장치(110)가 로봇(100)으로 주행 보조 정보 및 제어 신호를 전송하는 순서 또는 주기는 상술한 예시에 한정되는 것은 아니다.According to one embodiment, in operation 805, the electronic device 110 may transmit at least one of driving assistance information and a control signal to the robot 100 through the interface unit 140. For example, in operation 805, the electronic device 110 may transmit driving assistance information and a control signal to the robot 100 through the interface unit 140. For another example, the electronic device 110 may sequentially transmit driving assistance information and control signals to the robot 100 through the interface unit 140 in operation 805. For another example, the electronic device 110 transmits the driving assistance information generated through operation 803 to the robot 100, and after a certain time has elapsed, the electronic device 110 transmits the control signal transmitted from the server 20 to the robot 100. It can be sent to . However, the order or cycle in which the electronic device 110 transmits driving assistance information and control signals to the robot 100 is not limited to the above-described examples.

상술한 바와 같이 본 발명에 따른 전자 장치(110)는 실내 공간(10)에 대한 영상 정보와 함께 깊이 정보 및 관성 정보 중 적어도 하나를 서버(20)로 전송함으로써, 서버(20)가 실내 공간(10)에서의 로봇(100)의 위치를 추정하는 시각적 측위의 정밀도를 향상시킬 수 있다. 나아가, 전자 장치(110)는, 서버(20)가 영상 정보, 깊이 정보 및 관성 정보를 이용한 시각적 측위에 기반하여 생성한 제어 신호를 로봇(100)을 전달함으로써, 실내 공간(10)에서 로봇(100)의 주행을 제어할 수 있다.As described above, the electronic device 110 according to the present invention transmits at least one of depth information and inertial information along with image information about the indoor space 10 to the server 20, so that the server 20 can use the indoor space ( The precision of visual positioning for estimating the position of the robot 100 in 10) can be improved. Furthermore, the electronic device 110 transmits a control signal generated by the server 20 based on visual positioning using image information, depth information, and inertial information to the robot 100, thereby controlling the robot (100) in the indoor space (100). 100) driving can be controlled.

나아가, 본 발명에 따른 전자 장치(110)는, 서버(20)에서 제공된 제어 신호 뿐만 아니라, 전자 장치(110)에 의해 획득된 정보에 기반한 주행 보조 정보를 통해서도 로봇(100)의 주행을 제어함으로써, 실내 공간(10)에서 장애물에 유연하게 대처할 수 있는 로봇 제어 환경을 제공할 수 있다.Furthermore, the electronic device 110 according to the present invention controls the driving of the robot 100 not only through a control signal provided from the server 20, but also through driving assistance information based on information acquired by the electronic device 110. , it is possible to provide a robot control environment that can flexibly cope with obstacles in the indoor space 10.

도 10은, 도 7의 로봇 제어 시스템이 로봇 영상 정보를 함께 이용하여 생성된 제어 신호를 로봇에 제공하는 흐름을 나타내는 흐름도다.FIG. 10 is a flowchart showing how the robot control system of FIG. 7 provides a control signal generated using robot image information to the robot.

도 7 내지 도 10을 함께 참조하면, 일 실시 예에 따른 전자 장치(110)는 로봇(100)으로부터 수신한 로봇 영상 정보를 영상 정보와 함께 서버(20)로 전송할 수 있다. 보다 구체적으로, 전자 장치(110)는 로봇(100)으로부터 수신한 로봇 영상 정보를 영상 정보와 함께 서버(20)로 전송함으로써, 영상 정보 및 로봇 영상 정보를 이용한 시각적 측위에 기반하여 생성된 제어 신호를 로봇(100)으로 전달할 수 있다. 다만, 상술한 구성과 동일하거나 실질적으로 동일한 구성에 대해서는 동일한 참조번호를 사용하였으며, 중복되는 설명은 생략한다.Referring to FIGS. 7 to 10 together, the electronic device 110 according to an embodiment may transmit robot image information received from the robot 100 to the server 20 along with the image information. More specifically, the electronic device 110 transmits the robot image information received from the robot 100 to the server 20 together with the image information, thereby generating a control signal based on visual positioning using the image information and the robot image information. can be transmitted to the robot 100. However, the same reference numbers are used for components that are identical or substantially the same as the above-described components, and overlapping descriptions are omitted.

일 실시 예에 따르면, 로봇(100)은 동작 601에서 로봇(100)에 배치된 로봇 센서를 통해 로봇 영상 정보를 획득할 수 있다. 이 때, 로봇 영상 정보는 로봇(100)이 주행하는 실내 공간(10)에 대해, 로봇(100)에 배치된 로봇 센서를 통해 획득한 영상 정보로 이해될 수 있다.According to one embodiment, the robot 100 may acquire robot image information through a robot sensor disposed on the robot 100 in operation 601. At this time, the robot image information can be understood as image information acquired through a robot sensor placed on the robot 100 about the indoor space 10 in which the robot 100 runs.

일 실시 예에 따른 서버(20)는 전자 장치(110)로부터 수신한 영상 정보, 로봇 영상 정보, 깊이 정보 및 관성 정보 중 적어도 일부를 이용하여 시각적 측위를 수행하고, 시각적 측위의 결과에 기반하여, 로봇(100)의 주행을 제어하기 위한 제어 신호를 생성할 수 있다.The server 20 according to an embodiment performs visual positioning using at least some of the image information, robot image information, depth information, and inertial information received from the electronic device 110, and based on the results of the visual positioning, A control signal for controlling the driving of the robot 100 can be generated.

즉, 본 발명에 따른 전자 장치(110)는 센싱부(120)를 통해 획득한 영상 정보, 깊이 정보 및 관성 정보와 로봇(100)으로부터 수신한 로봇 영상 정보를 서버(20)로 전송하고, 서버(20)가 영상 정보, 깊이 정보, 관성 정보 및 로봇 영상 정보를 이용한 시각적 측위의 결과에 기반하여 생성한 제어 신호를 로봇(100)으로 전달함으로써, 공간(10)에서의 로봇(100)의 주행을 제어할 수 있다.That is, the electronic device 110 according to the present invention transmits the image information, depth information, and inertia information acquired through the sensing unit 120 and the robot image information received from the robot 100 to the server 20, and the server (20) transmits the control signal generated based on the results of visual positioning using image information, depth information, inertial information, and robot image information to the robot 100, thereby driving the robot 100 in space 10. can be controlled.

상술한 바와 같이 본 발명에 따른 전자 장치(110)는 실내 공간(10)에 대한 영상 정보와 함께 로봇(100)이 측정한 로봇 영상 정보를 서버(20)로 전송함으로써, 서버(20)가 실내 공간(10)에서의 로봇(100)의 위치를 추정하는 시각적 측위의 정밀도를 향상시킬 수 있다. 나아가, 전자 장치(110)는, 서버(20)가 영상 정보 및 로봇 영상 정보를 이용한 시각적 측위에 기반하여 생성한 제어 신호를 로봇(100)을 전달함으로써, 실내 공간(10)에서 로봇(100)의 주행을 제어할 수 있다.As described above, the electronic device 110 according to the present invention transmits the robot image information measured by the robot 100 together with the image information about the indoor space 10 to the server 20, so that the server 20 The precision of visual positioning that estimates the position of the robot 100 in space 10 can be improved. Furthermore, the electronic device 110 transmits a control signal generated by the server 20 based on visual positioning using image information and robot image information to the robot 100, thereby controlling the robot 100 in the indoor space 10. You can control the driving of .

도 11은 다른 실시 예에 따른, 로봇에 장착되는 전자 장치 및 로봇 제어 시스템을 설명하기 위한 개념도다. 도 12는, 도 11의 전자 장치가 영상 정보를 로봇으로 전송하는 방법을 나타내는 흐름도다. 도 13은, 도 11의 로봇 제어 시스템이 로봇의 주행을 제어하는 제어 신호를 로봇에 제공하는 흐름을 나타내는 흐름도다.Figure 11 is a conceptual diagram for explaining an electronic device and a robot control system mounted on a robot, according to another embodiment. FIG. 12 is a flowchart showing a method by which the electronic device of FIG. 11 transmits image information to a robot. FIG. 13 is a flowchart showing how the robot control system of FIG. 11 provides control signals for controlling the running of the robot to the robot.

도 13에 도시된 바와 같이, 본 발명의 로봇 제어 시스템은 로봇(100)에 장착되는 전자 장치(1210) 및 공간(10)에서 로봇(100)의 주행을 제어하기 위한 제어 신호를 생성하는 서버(20)를 포함할 수 있다. 이 때, 로봇(100)은 서버(20)와의 통신을 통해 영상 정보를 전송하고, 서버(20)가 생성한 제어 신호를 수신할 수 있다.As shown in FIG. 13, the robot control system of the present invention includes an electronic device 1210 mounted on the robot 100 and a server ( 20) may be included. At this time, the robot 100 may transmit image information through communication with the server 20 and receive a control signal generated by the server 20.

도 11 내지 도 13을 함께 참조하면, 일 실시 예에 따른 전자 장치(1210)는 로봇(100)이 주행하는 공간(10)에 대한 영상 정보를 획득하는 센싱부(1220), 영상 정보에 대한 암호화를 수행하고 인정 정보를 삽입하는 인증부(1250) 및 로봇(100)과의 데이터 통신을 수행하는 인터페이스부(1240)를 포함할 수 있다.Referring to FIGS. 11 to 13 together, the electronic device 1210 according to one embodiment includes a sensing unit 1220 that acquires image information about the space 10 in which the robot 100 runs, and encryption for the image information. It may include an authentication unit 1250 that performs and inserts authentication information, and an interface unit 1240 that performs data communication with the robot 100.

이 때, 센싱부(1220), 인증부(1250) 및 인터페이스부(1240)는 각각 도 2 또는 도 7의 센싱부(120), 인증부(150) 및 인터페이스부(140)와 실질적으로 동일한 구성으로 이해될 수 있다. 따라서, 전술한 구성과 실질적으로 동일한 구성에 대한 중복되는 설명은 생략한다.At this time, the sensing unit 1220, the authentication unit 1250, and the interface unit 1240 have substantially the same configuration as the sensing unit 120, the authentication unit 150, and the interface unit 140 of FIG. 2 or 7, respectively. It can be understood as Accordingly, overlapping descriptions of components that are substantially the same as those described above will be omitted.

이 때, 로봇(100)은 도 2 또는 도 7의 전자 장치(110)에 포함되는 통신부(130)와 실질적으로 동일한 구성을 포함할 수 있다. 예를 들어, 로봇(100)은 LTE, LTE-A, 5G 및 이더넷과 같은 통신 기술을 통해 서버(20)와 통신적으로(communicatively) 연결될 수 있다.At this time, the robot 100 may include substantially the same configuration as the communication unit 130 included in the electronic device 110 of FIG. 2 or 7. For example, the robot 100 may be communicatively connected to the server 20 through communication technologies such as LTE, LTE-A, 5G, and Ethernet.

일 실시 예에 따르면, 전자 장치(1210)는 동작 1201에서 센싱부(1220)(또는, 센싱부(1220)에 포함되는 제1 카메라(1221))를 통해 획득한 로봇(100)이 주행하는 실내 공간(10)에 대한 영상 정보를 획득할 수 있다. 이 때, 제1 카메라(1221)는 도 2 또는 도 7의 제1 카메라(121)와 실질적으로 동일한 구성으로 이해될 수 있다.According to one embodiment, the electronic device 1210 determines the indoor area where the robot 100 runs, obtained through the sensing unit 1220 (or the first camera 1221 included in the sensing unit 1220) in operation 1201. Image information about the space 10 can be obtained. At this time, the first camera 1221 may be understood to have substantially the same configuration as the first camera 121 of FIG. 2 or 7.

일 실시 예에 따르면, 인증부(1250)는 기 설정된 확인 권한을 갖는 서버(20)가 영상 정보를 확인할 수 있도록, 센싱부(1220)로부터 획득한 영상 정보를 암호화함으로써 암호화된 데이터를 생성할 수 있다. 또한, 인증부(1250)는, 서버(20)가 로봇(100) 및 전자 장치(1210) 중 적어도 하나를 식별할 수 있도록, 암호화된 데이터에 로봇(100) 및 전자 장치(1210)와 관련된 인증 정보를 부가할 수 있다.According to one embodiment, the authentication unit 1250 can generate encrypted data by encrypting the image information obtained from the sensing unit 1220 so that the server 20 with preset confirmation authority can verify the image information. there is. In addition, the authentication unit 1250 provides authentication related to the robot 100 and the electronic device 1210 to the encrypted data so that the server 20 can identify at least one of the robot 100 and the electronic device 1210. Information can be added.

일 실시 예에 따르면, 전자 장치(1210)는 동작 1203에서 영상 정보가 서버(20)로 전달되도록, 영상 정보를 인터페이스부(1240)를 통해 로봇(100)으로 전송할 수 있다.According to one embodiment, the electronic device 1210 may transmit image information to the robot 100 through the interface unit 1240 so that the image information is transmitted to the server 20 in operation 1203.

일 실시 예에 따르면, 로봇(100)은 동작 1205에서, 전자 장치(1210)로부터 수신한 영상 정보를 서버(20)로 전송할 수 있다. According to one embodiment, the robot 100 may transmit image information received from the electronic device 1210 to the server 20 in operation 1205.

일 실시 예에 따르면, 서버(20)는 동작 1207에서, 로봇으로부터 수신한 영상 정보를 이용하는 시각적 측위를 수행하고, 시각적 측위의 결과에 기반하여, 실내 공간(10)에서 로봇(100)의 주행을 제어하기 위한 제어 신호를 생성할 수 있다.According to one embodiment, in operation 1207, the server 20 performs visual positioning using image information received from the robot, and based on the results of the visual positioning, moves the robot 100 in the indoor space 10. A control signal for control can be generated.

일 실시 예에 따르면, 서버(20)는 동작 1209에서, 전자 장치(1210)로부터 획득된 영상 정보에 근거하여 생성되고, 로봇(100)의 주행을 제어하기 위한 제어 신호를 로봇(100)으로 전송할 수 잇다.According to one embodiment, in operation 1209, the server 20 generates a control signal based on image information acquired from the electronic device 1210 and transmits a control signal for controlling the running of the robot 100 to the robot 100. It is possible.

상술한 바와 같이, 본 발명은 로봇(100)이 서버(20)와 통신적으로 연결되거나, 서버(20)와 통신 가능한 구성을 포함하는 경우, 전자 장치(1210)가 획득한 정보를 로봇(100)을 통해 서버(20)로 제공함으로써, 서버(20)가 로봇(100)의 주행을 제어하기 위한 제어 신호를 생성하여 로봇(100)으로 송신하도록 할 수 있다.As described above, the present invention provides that when the robot 100 is communicatively connected to the server 20 or includes a configuration capable of communicating with the server 20, the information acquired by the electronic device 1210 is transmitted to the robot 100. ), the server 20 can generate a control signal for controlling the running of the robot 100 and transmit it to the robot 100.

도 14는, 도 11의 로봇 제어 시스템이 로봇 영상 정보를 함께 이용하여 생성된 제어 신호를 로봇에 제공하는 흐름을 나타내는 흐름도다.FIG. 14 is a flowchart showing how the robot control system of FIG. 11 provides a control signal generated using robot image information to the robot.

도 11 내지 도 14를 함께 참조하면, 일 실시 예에 따른 로봇(100)은 로봇(100)에 배치된 로봇 센서를 이용하여 획득한 로봇 영상 정보 및 전자 장치(1210)로부터 수신한 영상 정보를 서버(20)로 전송할 수 있다. 로봇(100)이 로봇 영상 정보 및 전자 장치(1210)로부터 수신한 영상 정보를 서버(20)로 전송함으로써, 서버(20)가 로봇 영상 정보 및 영상 정보를 이용하는 시각적 측위에 기반하여 생성한 제어 신호를 수신할 수 있다.Referring to FIGS. 11 to 14 together, the robot 100 according to one embodiment transmits the robot image information acquired using the robot sensor disposed on the robot 100 and the image information received from the electronic device 1210 to the server. It can be transmitted to (20). The robot 100 transmits the robot image information and the image information received from the electronic device 1210 to the server 20, so that the server 20 generates a control signal based on the robot image information and visual positioning using the image information. can receive.

다만, 상술한 구성과 동일하거나 실질적으로 동일한 구성에 대해서는 동일한 참조번호를 사용하였으며, 중복되는 설명은 생략한다.However, the same reference numbers are used for components that are identical or substantially the same as the above-described components, and overlapping descriptions are omitted.

일 실시 예에 따르면, 로봇(100)은 동작 1401에서 로봇(100)에 배치된 로봇 센서를 통해 로봇 영상 정보를 획득할 수 있다. 이 때, 로봇 영상 정보는 로봇(100)이 주행하는 실내 공간(10)에 대해 로봇(100)에 배치된 로봇 센서를 통해 획득한 영상 정보로 이해될 수 있다.According to one embodiment, the robot 100 may acquire robot image information through a robot sensor disposed on the robot 100 in operation 1401. At this time, the robot image information can be understood as image information acquired through a robot sensor placed on the robot 100 with respect to the indoor space 10 in which the robot 100 runs.

일 실시 예에 따르면, 로봇(100)은 동작 1403에서, 전자 장치(1210)로부터 수신한 영상 정보 및 로봇 영상 정보를 서버(20)로 전송할 수 있다.According to one embodiment, the robot 100 may transmit image information and robot image information received from the electronic device 1210 to the server 20 in operation 1403.

일 실시 예에 따른 서버(20)는 동작 1207에서 전자 장치(1210)에서 로봇(100)을 통해 수신한 영상 정보 및 로봇 영상 정보 중 적어도 일부를 이용하여 시각적 측위를 수행하고, 시각적 측위의 결과에 기반하여, 로봇(100)의 주행을 제어하기 위한 제어 신호를 생성할 수 있다.In operation 1207, the server 20 according to an embodiment performs visual positioning using at least some of the image information and robot image information received from the electronic device 1210 through the robot 100, and provides a result of the visual positioning. Based on this, a control signal for controlling the running of the robot 100 can be generated.

일 실시 예에 따른 서버(20)는 동작 1209에서, 동작 1207을 통해 생성한 제어 신호를, 로봇(100)으로 전송할 수 있다. 로봇(100)은 동작 1209에서 서버(20)로부터 제어 신호를 수신할 수 있다.The server 20 according to one embodiment may transmit the control signal generated through operation 1207 to the robot 100 in operation 1209. The robot 100 may receive a control signal from the server 20 in operation 1209.

본 발명에 따른 로봇(100)은 전자 장치(1210)로부터 획득한 영상 정보와 로봇 센서를 통해 획득한 로봇 영상 정보를 서버(20)로 전송하고, 서버(20)가 영상 정보 및 로봇 영상 정보를 이용한 시각적 측위의 결과에 기반하여 생성한 제어 신호를 수신할 수 있다.The robot 100 according to the present invention transmits image information acquired from the electronic device 1210 and robot image information obtained through the robot sensor to the server 20, and the server 20 transmits the image information and robot image information. A control signal generated based on the results of visual positioning can be received.

상술한 바와 같이, 본 발명에 따른 로봇(100)은 전자 장치(1210)로부터 수신한 영상 정보와 함께 로봇(100)이 측정한 로봇 영상 정보를 서버(20)로 전송함으로써, 서버(20)가 실내 공간(10)에서의 로봇(100)의 위치를 추정하는 시각적 측위의 정밀도를 향상시킬 수 있다. 나아가, 로봇(100)은, 서버(20)가 영상 정보 및 로봇 영상 정보를 이용한 시각적 측위에 기반하여 생성한 제어 신호를 수신할 수 있다.As described above, the robot 100 according to the present invention transmits the robot image information measured by the robot 100 together with the image information received from the electronic device 1210 to the server 20, so that the server 20 The accuracy of visual positioning for estimating the position of the robot 100 in the indoor space 10 can be improved. Furthermore, the robot 100 may receive a control signal generated by the server 20 based on visual positioning using image information and robot image information.

한편, 위에서 살펴본 본 발명은, 컴퓨터에서 하나 이상의 프로세스에 의하여 실행되며, 이러한 컴퓨터로 판독될 수 있는 매체에 저장 가능한 프로그램으로서 구현될 수 있다.Meanwhile, the present invention discussed above can be implemented as a program that is executed by one or more processes on a computer and can be stored in a medium that can be read by such a computer.

나아가, 위에서 살펴본 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드 또는 명령어로서 구현하는 것이 가능하다. 즉, 본 발명은 프로그램의 형태로 제공될 수 있다. Furthermore, the present invention discussed above can be implemented as computer-readable codes or instructions on a program-recorded medium. That is, the present invention may be provided in the form of a program.

한편, 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽힐 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. Meanwhile, computer-readable media includes all types of recording devices that store data that can be read by a computer system. Examples of computer-readable media include HDD (Hard Disk Drive), SSD (Solid State Disk), SDD (Silicon Disk Drive), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. There is.

나아가, 컴퓨터가 읽을 수 있는 매체는, 저장소를 포함하며 전자기기가 통신을 통하여 접근할 수 있는 서버 또는 클라우드 저장소일 수 있다. 이 경우, 컴퓨터는 유선 또는 무선 통신을 통하여, 서버 또는 클라우드 저장소로부터 본 발명에 따른 프로그램을 다운로드 받을 수 있다.Furthermore, the computer-readable medium may be a server or cloud storage that includes storage and can be accessed by electronic devices through communication. In this case, the computer can download the program according to the present invention from a server or cloud storage through wired or wireless communication.

나아가, 본 발명에서는 위에서 설명한 컴퓨터는 프로세서, 즉 CPU(Central Processing Unit, 중앙처리장치)가 탑재된 전자기기로서, 그 종류에 대하여 특별한 한정을 두지 않는다.Furthermore, in the present invention, the computer described above is an electronic device equipped with a processor, that is, a CPU (Central Processing Unit), and there is no particular limitation on its type.

한편, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.Meanwhile, the above detailed description should not be construed as restrictive in all respects and should be considered illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

Claims (16)

로봇에 장착되는 전자 장치에 있어서,
실내 공간에서 상기 로봇의 주행을 위한 시각적 측위를 수행하기 위하여, 상기 실내 공간에 대한 영상 정보를 획득하는 센싱부;
상기 전자 장치와 상기 로봇 간의 데이터 통신을 수행하는 인터페이스부; 및
서버와 통신하고, 상기 서버가 상기 영상 정보를 이용하여 상기 시각적 측위를 수행하도록, 상기 서버로 상기 영상 정보를 송신하는 통신부를 포함하고,
상기 서버로부터, 상기 시각적 측위의 결과에 기반하여 생성된 제어 신호를 수신하는 것에 응답하여, 상기 로봇이 상기 제어 신호에 기반하여 상기 실내 공간에서 주행하도록, 상기 서버로부터 수신된 상기 제어 신호를 상기 인터페이스부를 통해 상기 로봇으로 전달하는, 전자 장치.
In the electronic device mounted on the robot,
A sensing unit that acquires image information about the indoor space in order to perform visual positioning for the robot to run in the indoor space;
an interface unit that performs data communication between the electronic device and the robot; and
Comprising a communication unit that communicates with a server and transmits the image information to the server so that the server performs the visual positioning using the image information,
In response to receiving, from the server, a control signal generated based on the result of the visual positioning, the control signal received from the server is transmitted to the interface so that the robot runs in the indoor space based on the control signal. An electronic device, which passes through the unit to the robot.
제1항에 있어서,
상기 센싱부는 상기 영상 정보를 획득하는 제1 카메라를 포함하고,
상기 제1 카메라는 상기 전자 장치 상에서 상기 로봇의 전면과 정렬되도록 배치되는, 전자 장치.
According to paragraph 1,
The sensing unit includes a first camera that acquires the image information,
The first camera is arranged on the electronic device to be aligned with the front of the robot.
제2항에 있어서,
상기 로봇에는, 상기 전자 장치의 상기 제1 카메라와 이격되어 배치되는 로봇 센서가 포함되고,
상기 인터페이스부는 상기 로봇으로부터, 상기 로봇에 배치된 상기 로봇 센서를 통해 획득된 로봇 영상 정보를 수신하고,
상기 통신부는 상기 제1 카메라를 통해 획득된 상기 영상 정보 및 상기 로봇 영상 정보를 상기 서버로 전송하는, 전자 장치.
According to paragraph 2,
The robot includes a robot sensor arranged to be spaced apart from the first camera of the electronic device,
The interface unit receives robot image information obtained from the robot through the robot sensor disposed on the robot,
The communication unit transmits the image information and the robot image information acquired through the first camera to the server.
제3항에 있어서,
상기 서버에서는, 상기 전자 장치로의 상기 제1 카메라를 통해 획득된 상기 영상 정보 및 상기 로봇 영상 정보를 이용하여, 상기 시각적 측위가 수행되고,
상기 통신부가 상기 서버로부터, 상기 영상 정보 및 상기 로봇 영상 정보를 이용한 상기 시각적 측위의 결과에 기반하여 생성된 상기 제어 신호를 수신하는 것에 응답하여, 상기 제어 신호를 상기 인터페이스부를 통해 상기 로봇으로 전달하는, 전자 장치.
According to paragraph 3,
In the server, the visual positioning is performed using the image information and the robot image information acquired through the first camera on the electronic device,
In response to the communication unit receiving the control signal generated based on the image information and the result of the visual positioning using the robot image information from the server, the control signal is transmitted to the robot through the interface unit. , electronic devices.
제1항에 있어서,
기 설정된 확인 권한을 갖는 상기 서버가 상기 영상 정보를 확인할 수 있도록 상기 영상 정보에 대한 암호화를 수행하여, 암호화된 데이터를 생성하는 인증부를 더 포함하고,
상기 인증부는, 상기 암호화된 데이터에, 상기 전자 장치 및 상기 로봇 중 적어도 하나를 식별할 수 있는 인증 정보를 삽입하고,
상기 통신부를 통해 상기 서버에 상기 암호화된 데이터를 전송하는, 전자 장치.
According to paragraph 1,
It further includes an authentication unit that performs encryption on the video information and generates encrypted data so that the server with preset confirmation authority can confirm the video information,
The authentication unit inserts authentication information capable of identifying at least one of the electronic device and the robot into the encrypted data,
An electronic device that transmits the encrypted data to the server through the communication unit.
제1항에 있어서,
상기 전자 장치는, 상기 서버로부터 수신한 상기 제어 신호 및 상기 전자 장치에서 생성한 주행 보조 정보에 근거하여 상기 로봇의 주행이 제어되도록, 상기 센싱부를 통해 획득한 센싱 정보를 이용하여, 상기 주행 보조 정보를 생성하고,
상기 센싱 정보는 상기 영상 정보, 상기 실내 공간에 대한 깊이 정보 및 상기 로봇의 관성 정보를 포함하는, 전자 장치.
According to paragraph 1,
The electronic device generates the driving assistance information using the sensing information obtained through the sensing unit so that the driving of the robot is controlled based on the control signal received from the server and the driving assistance information generated by the electronic device. Create a ,
The sensing information includes the image information, depth information about the indoor space, and inertial information of the robot.
제6항에 있어서,
상기 센싱부는, 상기 깊이 정보를 획득하는 제2 카메라 및 상기 관성 정보를 획득하는 관성 센서 중 적어도 하나를 더 포함하고,
상기 전자 장치는, 상기 깊이 정보 및 상기 관성 정보에 기반하여, 상기 실내 공간에서의 상기 로봇의 주행을 보조하는 상기 주행 보조 정보를 생성하는 프로세서를 더 포함하고,
상기 서버로부터 수신한 상기 제어 신호 및 상기 프로세서로부터 수신한 상기 주행 보조 정보는, 상기 인터페이스부를 통해 상기 로봇으로 전달되는, 전자 장치.
According to clause 6,
The sensing unit further includes at least one of a second camera for acquiring the depth information and an inertial sensor for acquiring the inertial information,
The electronic device further includes a processor that generates the driving assistance information to assist the robot in driving in the indoor space, based on the depth information and the inertial information,
The control signal received from the server and the driving assistance information received from the processor are transmitted to the robot through the interface unit.
로봇 제어 시스템에 있어서,
실내 공간에서 로봇의 주행을 제어하기 위한 제어 신호를 생성하는 서버; 및
상기 로봇에 장착되어 상기 로봇과 관련된 정보를 획득하고, 상기 로봇을 통하여 상기 로봇과 관련된 정보를 상기 서버로 전달하는 전자 장치를 포함하고,
상기 전자 장치는:
상기 서버에서 상기 로봇의 주행 제어를 위한 시각적 측위(visual localization)가 수행되도록, 센싱부를 통해 상기 실내 공간에 대한 영상 정보를 획득하고,
상기 영상 정보가 상기 로봇을 통해 상기 서버로 전달되도록, 상기 로봇과 데이터 통신을 수행하도록 연결된 인터페이스부를 통해 상기 로봇으로 상기 영상 정보를 전달하고,
상기 서버는:
상기 로봇으로부터 상기 전자 장치에서 획득된 상기 영상 정보를 수신하는 것에 응답하여, 상기 영상 정보에 기반하여 상기 로봇에 대한 상기 시각적 측위를 수행하고,
상기 시각적 측위의 결과에 근거하여 상기 실내 공간에서 상기 로봇의 주행을 제어하기 위한 제어 신호를 생성하고,
상기 전자 장치에서 획득된 상기 영상 정보에 근거하여 생성된, 상기 로봇의 주행을 제어하기 위한 상기 제어 신호를 상기 로봇으로 전송하는, 로봇 제어 시스템.
In the robot control system,
A server that generates control signals to control the robot's driving in an indoor space; and
It includes an electronic device mounted on the robot, acquiring information related to the robot, and transmitting the information related to the robot to the server through the robot,
The electronic device:
The server acquires image information about the indoor space through a sensing unit so that visual localization for driving control of the robot is performed,
Transmitting the image information to the robot through an interface unit connected to perform data communication with the robot so that the image information is transmitted to the server through the robot,
Said server:
In response to receiving the image information acquired in the electronic device from the robot, perform the visual localization for the robot based on the image information,
Generating a control signal to control the movement of the robot in the indoor space based on the results of the visual positioning,
A robot control system that transmits the control signal for controlling the running of the robot, which is generated based on the image information acquired from the electronic device, to the robot.
제8항에 있어서,
상기 전자 장치는 인증부를 통해 상기 서버가 상기 전자 장치 및 상기 로봇 중 적어도 하나를 식별할 수 있도록 상기 영상 정보에 인증 정보를 부가하여, 상기 로봇으로 전송하고,
상기 서버는:
상기 로봇으로부터 수신한, 상기 영상 정보에 부가된 상기 인증 정보로부터 상기 전자 장치 및 상기 로봇 중 적어도 하나를 식별하고,
상기 인증 정보 및 상기 영상 정보에 기반하여, 상기 실내 공간에서 상기 로봇의 주행을 제어하기 위한 상기 제어 신호를 생성하는, 로봇 제어 시스템.
According to clause 8,
The electronic device adds authentication information to the image information so that the server can identify at least one of the electronic device and the robot through an authentication unit and transmits it to the robot,
Said server:
Identifying at least one of the electronic device and the robot from the authentication information received from the robot and added to the image information,
A robot control system that generates the control signal for controlling the driving of the robot in the indoor space based on the authentication information and the image information.
제9항에 있어서,
상기 인증부는 기 설정된 확인 권한을 갖는 상기 서버가 상기 영상 정보를 확인할 수 있도록, 상기 영상 정보에 대한 암호화를 수행하여 암호화된 데이터를 생성하고,
상기 서버는 상기 로봇을 통해 상기 암호화된 데이터를 수신하는 것에 응답하여, 상기 영상 정보에 대한 복호화를 수행함으로써, 상기 영상 정보를 확인하는, 로봇 제어 시스템.
According to clause 9,
The authentication unit generates encrypted data by performing encryption on the image information so that the server with preset confirmation authority can verify the image information,
A robot control system, wherein the server confirms the image information by performing decryption on the image information in response to receiving the encrypted data through the robot.
제8항에 있어서,
상기 서버는:
상기 로봇으로부터, 상기 로봇에 배치된 로봇 센서를 통해 획득한 로봇 영상 정보를 수신하고,
상기 영상 정보 및 상기 로봇 영상 정보를 이용하여 상기 시각적 측위를 수행하고,
상기 시각적 측위의 결과에 근거하여 상기 실내 공간에서 상기 로봇의 주행을 제어하기 위한 상기 제어 신호를 생성하는, 로봇 제어 시스템.
According to clause 8,
The server is:
Receiving robot image information obtained from the robot through a robot sensor disposed on the robot,
Performing the visual positioning using the image information and the robot image information,
A robot control system that generates the control signal for controlling the movement of the robot in the indoor space based on the results of the visual positioning.
제8항에 있어서,
상기 센싱부는, 상기 영상 정보를 획득하는 제1 카메라, 상기 실내 공간에 대한 깊이 정보를 획득하는 제2 카메라 및 상기 로봇의 관성 정보를 획득하는 관성 센서를 더 포함하고,
상기 전자 장치는, 상기 깊이 정보 및 상기 관성 정보에 기반하여 상기 실내 공간에서의 상기 로봇의 주행을 보조하는 주행 보조 정보를 획득하는 프로세서를 더 포함하고.
상기 전자 장치는, 상기 프로세서로부터 수신한 상기 주행 보조 정보를 상기 인터페이스부를 통해 상기 로봇으로 전달하고,
상기 서버는, 상기 영상 정보에 기반하여 생성된 상기 제어 신호를 상기 로봇으로 전달하는, 로봇 제어 시스템.
According to clause 8,
The sensing unit further includes a first camera that acquires the image information, a second camera that acquires depth information about the indoor space, and an inertial sensor that acquires inertial information of the robot,
The electronic device further includes a processor that obtains driving assistance information that assists the robot in driving in the indoor space based on the depth information and the inertial information.
The electronic device transmits the driving assistance information received from the processor to the robot through the interface unit,
The server is a robot control system that transmits the control signal generated based on the image information to the robot.
로봇 제어 방법에 있어서,
로봇에 장착된 전자 장치의 센싱부를 통해, 실내 공간에서 상기 로봇의 주행을 위한 시각적 측위(visual localization)를 수행하기 위하여, 상기 실내 공간에 대한 영상 정보를 획득하는 단계;
서버가 상기 시각적 측위를 수행하도록, 상기 영상 정보를 상기 서버로 전송하는 단계; 및
상기 서버로부터, 상기 시각적 측위의 결과에 기반하여 생성된 제어 신호를 수신하는 것에 응답하여, 상기 로봇이 상기 제어 신호에 기반하여 상기 실내 공간에서 주행하도록 상기 제어 신호를 상기 로봇으로 전달하는 단계를 포함하는, 로봇 제어 방법.
In the robot control method,
Obtaining image information about the indoor space through a sensing unit of an electronic device mounted on the robot to perform visual localization for driving the robot in the indoor space;
transmitting the image information to the server so that the server performs the visual localization; and
In response to receiving, from the server, a control signal generated based on the result of the visual localization, transmitting the control signal to the robot to cause the robot to travel in the indoor space based on the control signal. How to control a robot.
제13항에 있어서,
상기 센싱부를 통해 상기 실내 공간에 대한 깊이 정보 및 상기 로봇의 관성 정보를 획득하는 단계;
상기 깊이 정보 및 상기 관성 정보에 기반하여, 상기 실내 공간에서의 상기 로봇의 주행을 보조하는 주행 보조 정보를 획득하는 단계; 및
상기 주행 보조 정보 및 상기 서버로부터 수신한 상기 제어 신호를, 상기 로봇으로 전달하는 단계를 포함하는, 로봇 제어 방법.
According to clause 13,
Obtaining depth information about the indoor space and inertia information of the robot through the sensing unit;
Based on the depth information and the inertia information, obtaining driving assistance information to assist the robot in driving in the indoor space; and
A robot control method comprising transmitting the driving assistance information and the control signal received from the server to the robot .
제13항에 있어서,
상기 로봇으로부터 상기 로봇에 배치되는 로봇 센서가 획득한 로봇 영상 정보를 수신하는 단계;
상기 영상 정보 및 상기 로봇 영상 정보를 함께 상기 서버로 전송하는 단계; 및
상기 서버로부터, 상기 서버가 상기 영상 정보 및 상기 로봇 영상 정보를 이용한 상기 시각적 측위의 결과에 기반하여 생성된 상기 제어 신호를 수신하는 것에 응답하여, 상기 제어 신호를 상기 로봇으로 전달하는 단계를 포함하는, 로봇 제어 방법.
According to clause 13,
Receiving robot image information acquired by a robot sensor disposed on the robot from the robot;
Transmitting the image information and the robot image information together to the server; and
In response to the server receiving, from the server, the control signal generated based on the image information and a result of the visual positioning using the robot image information, transmitting the control signal to the robot. , Robot control method.
전자기기에서 하나 이상의 프로세스에 의하여 실행되며, 컴퓨터로 판독될 수 있는 기록매체에 저장된 프로그램으로서,
상기 프로그램은,
로봇에 장착된 전자 장치의 센싱부를 통해, 실내 공간에서 상기 로봇의 주행을 위한 시각적 측위(visual localization)를 수행하기 위하여, 상기 실내 공간에 대한 영상 정보를 획득하는 단계,
서버가 상기 시각적 측위를 수행하도록, 상기 영상 정보를 상기 서버로 전송하는 단계, 및
상기 서버로부터, 상기 시각적 측위의 결과에 기반하여 생성된 제어 신호를 수신하는 것에 응답하여, 상기 로봇이 상기 제어 신호에 기반하여 상기 실내 공간에서 주행하도록, 상기 제어 신호를 상기 로봇으로 전달하는 단계를 수행하는 명령어들을 포함하는 것을 특징으로 하는 컴퓨터로 판독될 수 있는 기록매체에 저장된 프로그램.
A program that is executed by one or more processes in an electronic device and stored on a computer-readable recording medium,
The above program is,
Obtaining image information about the indoor space through a sensing unit of an electronic device mounted on the robot to perform visual localization for driving the robot in the indoor space,
transmitting the image information to the server so that the server performs the visual localization, and
In response to receiving, from the server, a control signal generated based on a result of the visual localization, transmitting the control signal to the robot so that the robot runs in the indoor space based on the control signal. A program stored on a computer-readable recording medium that includes instructions to be executed.
KR1020220099112A 2022-08-09 2022-08-09 Electronic device, systems and methods for robot control KR20240020865A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020220099112A KR20240020865A (en) 2022-08-09 2022-08-09 Electronic device, systems and methods for robot control
PCT/KR2023/010557 WO2024034911A1 (en) 2022-08-09 2023-07-21 Electronic device, system, and method for controlling robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220099112A KR20240020865A (en) 2022-08-09 2022-08-09 Electronic device, systems and methods for robot control

Publications (1)

Publication Number Publication Date
KR20240020865A true KR20240020865A (en) 2024-02-16

Family

ID=89851995

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220099112A KR20240020865A (en) 2022-08-09 2022-08-09 Electronic device, systems and methods for robot control

Country Status (2)

Country Link
KR (1) KR20240020865A (en)
WO (1) WO2024034911A1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4588359B2 (en) * 2004-05-07 2010-12-01 富士通株式会社 Network robot function providing system and function providing method
KR20090103078A (en) * 2008-03-27 2009-10-01 인제대학교 산학협력단 Mobile-phone combination robot and method for remote controlling
US11565415B2 (en) * 2019-07-02 2023-01-31 Lg Electronics Inc. Method of tracking user position using crowd robot, tag device, and robot implementing thereof
KR102457588B1 (en) * 2019-12-13 2022-10-24 주식회사 케이티 Autonomous robot, location estimation server of autonomous robot and location estimation or autonomous robot using the same
KR102462634B1 (en) * 2020-08-27 2022-11-03 네이버랩스 주식회사 Building that monitors robots driving in the building, control method and system for robot

Also Published As

Publication number Publication date
WO2024034911A1 (en) 2024-02-15

Similar Documents

Publication Publication Date Title
US11858628B2 (en) Image space motion planning of an autonomous vehicle
US11822353B2 (en) Simple multi-sensor calibration
CN110446159B (en) System and method for accurate positioning and autonomous navigation of indoor unmanned aerial vehicle
EP3012659A2 (en) Surveying areas using a radar system and an unmanned aerial vehicle
EP3158417B1 (en) Sensor fusion using inertial and image sensors
US20190224852A1 (en) Assistant robot and operation method thereof
CN104854428A (en) Sensor fusion
EP3674657A1 (en) Construction and update of elevation maps
US11110600B2 (en) Airport robot and operation method thereof
US20150266577A1 (en) Modular drone and methods for use
EP3734394A1 (en) Sensor fusion using inertial and image sensors
KR20200037548A (en) Vehicle charging robot
US20240126294A1 (en) System and method for perceptive navigation of automated vehicles
EP2927771A1 (en) Flying drone trajectory synchronization
Urieva et al. Collision detection and avoidance using optical flow for multicopter UAVs
US20170090477A1 (en) Indoor positioning system training
Zhou et al. Autonomous wireless sensor deployment with unmanned aerial vehicles for structural health monitoring applications
Chirtel et al. Designing a spatially aware, autonomous quadcopter using the android control sensor system
KR102372563B1 (en) Remote control method and system for robot
KR20240020865A (en) Electronic device, systems and methods for robot control
Park et al. Realization of distributed formation flying using a group of autonomous quadcopters and application to visual performance show
Pearce et al. Designing a spatially aware, automated quadcopter using an Android control system
JP7476882B2 (en) Mobile object, control method thereof, and program
US20220415193A1 (en) Image processing device, image processing method, and program
Morris et al. CityFlyer: Progress toward autonomous MAV navigation and 3D mapping