KR20240020865A - Electronic device, systems and methods for robot control - Google Patents
Electronic device, systems and methods for robot control Download PDFInfo
- Publication number
- KR20240020865A KR20240020865A KR1020220099112A KR20220099112A KR20240020865A KR 20240020865 A KR20240020865 A KR 20240020865A KR 1020220099112 A KR1020220099112 A KR 1020220099112A KR 20220099112 A KR20220099112 A KR 20220099112A KR 20240020865 A KR20240020865 A KR 20240020865A
- Authority
- KR
- South Korea
- Prior art keywords
- robot
- image information
- server
- electronic device
- information
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 29
- 230000000007 visual effect Effects 0.000 claims abstract description 70
- 238000004891 communication Methods 0.000 claims abstract description 49
- 230000004807 localization Effects 0.000 claims description 12
- 238000012790 confirmation Methods 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 210000004556 brain Anatomy 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000004886 process control Methods 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1689—Teleoperation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/006—Controls for manipulators by means of a wireless system for controlling one or several manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
- B25J9/1666—Avoiding collision or forbidden zones
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
Abstract
본 발명에 따른 로봇에 장착되는 전자 장치는, 실내 공간에서 로봇의 주행을 위한 시각적 측위를 수행하기 위하여, 실내 공간에 대한 영상 정보를 획득하는 센싱부, 전자 장치와 로봇 간의 데이터 통신을 수행하는 인터페이스부 및 서버와 통신하고, 서버가 영상 정보를 이용하여 시각적 측위를 수행하도록, 서버로 영상 정보를 송신하는 통신부를 포함하고, 서버로부터, 시각적 측위의 결과에 기반하여 생성된 제어 신호를 수신하는 것에 응답하여, 로봇이 제어 신호에 기반하여 실내 공간에서 주행하도록, 서버로부터 수신된 제어 신호를 인터페이스부를 통해 로봇으로 전달할 수 있다.The electronic device mounted on the robot according to the present invention includes a sensing unit that acquires image information about the indoor space in order to perform visual positioning for the robot to run in the indoor space, and an interface that performs data communication between the electronic device and the robot. It includes a communication unit that communicates with the unit and the server, and transmits image information to the server so that the server performs visual positioning using the image information, and receives a control signal generated based on the result of the visual positioning from the server. In response, the control signal received from the server may be transmitted to the robot through the interface unit so that the robot runs in the indoor space based on the control signal.
Description
본 발명은 로봇 제어를 위한 전자 장치, 시스템 및 방법에 관한 것이다. 보다 구체적으로, 로봇에 장착되어 로봇이 주행하는 실내 공간에 관한 정보를 획득하고, 서버가 생성한 로봇의 주행을 제어하기 위한 제어 신호를 통해 로봇의 주행을 제어하는 전자 장치, 시스템 및 방법에 관한 것이다.The present invention relates to electronic devices, systems and methods for robot control. More specifically, about an electronic device, system, and method that is mounted on a robot, obtains information about the indoor space in which the robot runs, and controls the movement of the robot through a control signal generated by a server to control the movement of the robot. will be.
기술이 발전함에 따라, 전자기기(예를 들어, 스마트폰, 태블릿 PC, 자동화 기기 등)의 보급이 대중화되었으며, 이에 따라 일상생활의 많은 부분에서 전자기기에 대한 의존도가 점차적으로 높아지고 있다. As technology develops, the spread of electronic devices (e.g., smartphones, tablet PCs, automated devices, etc.) has become popular, and as a result, dependence on electronic devices is gradually increasing in many aspects of daily life.
나아가 최근에는, 인공 지능 기술, 클라우드 기술 등이 발전함에 따라, 로봇을 효율적으로 제어하기 위한 브레인리스 로봇 시스템에 대한 개발이 이루어지고 있다.Furthermore, recently, as artificial intelligence technology, cloud technology, etc. have developed, brainless robot systems are being developed to efficiently control robots.
브레인리스 로봇 시스템은 복수의 브레인리스 로봇 및 브레인 서버를 포함하고, 브레인리스 로봇 시스템에서 각 브레인리스 로봇은 원격 또는 엣지(edge)에 위치한 브레인 서버에 센서 정보 및 각종 로봇의 상태를 리포트하고 이동 등의 제어 명령을 수신하여 처리하게 된다.The brainless robot system includes a plurality of brainless robots and brain servers. In the brainless robot system, each brainless robot reports sensor information and the status of various robots to a brain server located remotely or at the edge and moves, etc. Control commands are received and processed.
이 때, 브레인리스 로봇이 브레인 서버로부터 제어 명령을 수신하여 처리하기 위해서는, 특정 브레인 서버와 연동 가능한 센서, 통신 장치 및 프로세서 등이 내장되어야 하고, 이러한 로봇을 신규 개발하기 위해서는 비용 및 노력이 요구된다.At this time, in order for the brainless robot to receive and process control commands from the brain server, it must be equipped with sensors, communication devices, and processors that can be linked to a specific brain server, and cost and effort are required to develop new robots. .
또한, 저사양 로봇 또는 제3 자(3rd party)가 제작한 로봇 등의 경우, 특정 브레인 서버와 연동되지 않는 어려움이 존재할 수 있다.Additionally, in the case of low-spec robots or robots manufactured by a third party, there may be difficulties in linking with a specific brain server.
이에, 대한민국 공개특허 제10-2021-0062684호(분리형 차량 lidar 데이터 수집 포드)에서는, 차량에 장착되어 환경/차량 데이터를 수집하고 원격 서버와 통신하는 포드(pod)에 대하여 개시되어 있으나, 실내 공간을 주행하는 로봇에 장착되어 획득한 실내 영상 정보를 서버에 전송하고, 서버가 생성한 제어 신호를 로봇에 전달하는 장치에 대해서는 개시하지 않는다.Accordingly, in Republic of Korea Patent Publication No. 10-2021-0062684 (Separate vehicle lidar data collection pod), a pod that is mounted on a vehicle to collect environmental/vehicle data and communicate with a remote server is disclosed, but the indoor space It does not disclose a device that is mounted on a robot traveling and transmits the acquired indoor image information to a server and transmits the control signal generated by the server to the robot.
이에, 로봇에 장착되어 실내 영상 정보를 수집하여 서버로 전송하고, 서버가 수신한 정보를 이용하는 시각적 측위를 통해 생성한 제어 신호를 로봇에 전달함으로써, 로봇의 실내 주행을 제어하는 장치에 대한 니즈가 여전히 존재한다.Accordingly, there is a need for a device that controls the robot's indoor driving by being mounted on the robot, collecting indoor image information and transmitting it to the server, and transmitting control signals generated through visual positioning using the information received by the server to the robot. It still exists.
본 발명은 로봇의 주행을 제어하기 위한 전자 장치, 시스템 및 방법을 제공하는 것이다. 보다 구체적으로 본 발명은, 로봇에 장착되어 로봇이 주행하는 실내 공간에 관한 정보를 획득하고, 서버가 생성한 로봇의 주행을 제어하기 위한 제어 신호를 통해 로봇의 주행을 제어하는 전자 장치, 시스템 및 방법을 제공하는 것이다.The present invention provides an electronic device, system, and method for controlling the movement of a robot. More specifically, the present invention relates to an electronic device, a system, and It provides a method.
나아가, 본발명은 로봇에 장착된 전자 장치가 획득한 영상 정보와 로봇이 획득한 로봇 영상 정보를 서버로 전달하고, 서버가 영상 정보 및 로봇 영상 정보에 기반하여 생성한 제어 신호를 로봇에 전달하는 전자 장치, 시스템 및 방법을 제공하는 것이다.Furthermore, the present invention transmits image information acquired by an electronic device mounted on the robot and robot image information acquired by the robot to a server, and the server transmits a control signal generated based on the image information and robot image information to the robot. To provide electronic devices, systems and methods.
위에서 살펴본 과제를 해결하기 위하여 로봇에 장착되는 전자 장치는, 실내 공간에서 로봇의 주행을 위한 시각적 측위(visual localization)를 수행하기 위하여, 실내 공간에 대한 영상 정보를 획득하는 센싱부, 전자 장치와 로봇 간의 데이터 통신을 수행하는 인터페이스부 및 서버와 통신하고, 서버가 영상 정보를 이용하여 시각적 측위를 수행하도록, 서버로 영상 정보를 송신하는 통신부를 포함하고, 서버로부터, 시각적 측위의 결과에 기반하여 생성된 제어 신호를 수신하는 것에 응답하여, 로봇이 제어 신호에 기반하여 실내 공간에서 주행하도록, 서버로부터 수신된 제어 신호를 인터페이스부를 통해 로봇으로 전달할 수 있다.The electronic devices mounted on the robot to solve the problems discussed above include a sensing unit that acquires image information about the indoor space in order to perform visual localization for the robot to run in the indoor space, electronic devices, and the robot. An interface unit that performs data communication between devices and a communication unit that communicates with the server and transmits image information to the server so that the server performs visual positioning using the image information, and generates data from the server based on the results of the visual positioning. In response to receiving the control signal, the control signal received from the server may be transmitted to the robot through the interface unit so that the robot runs in the indoor space based on the control signal.
또한, 로봇 제어 시스템은 실내 공간에서 로봇의 주행을 제어하기 위한 제어 신호를 생성하는 서버, 및 로봇에 장착되어 로봇과 관련된 정보를 획득하고, 로봇을 통하여 로봇과 관련된 정보를 서버로 전달하는 전자 장치를 포함하고, 전자 장치는, 서버에서 로봇의 주행 제어를 위한 시각적 측위가 수행되도록, 센싱부를 통해 실내 공간에 대한 영상 정보를 획득하고, 영상 정보가 로봇을 통해 서버로 전달되도록, 로봇과 데이터 통신을 수행하도록 연결된 인터페이스부를 통해 \로봇으로 영상 정보를 전달하고, 서버는, 로봇으로부터 전자 장치에서 획득된 영상 정보를 수신하는 것에 응답하여, 영상 정보에 기반하여 로봇에 대한 시각적 측위를 수행하고, 시각적 측위의 결과에 근거하여 실내 공간에서 로봇의 주행을 제어하기 위한 제어 신호를 생성하고, 전자 장치에서 획득된 영상 정보에 근거하여 생성된, 로봇의 주행을 제어하기 위한 제어 신호를 로봇으로 전송할 수 있다.In addition, the robot control system includes a server that generates control signals to control the movement of the robot in an indoor space, and an electronic device that is mounted on the robot, obtains information related to the robot, and transmits information related to the robot to the server through the robot. The electronic device acquires image information about the indoor space through a sensing unit so that visual positioning for driving control of the robot is performed in the server, and communicates data with the robot so that the image information is transmitted to the server through the robot. Transmits image information to the robot through an interface unit connected to perform, and the server, in response to receiving image information acquired from an electronic device from the robot, performs visual positioning for the robot based on the image information, and performs visual Based on the results of the positioning, a control signal for controlling the robot's driving in an indoor space is generated, and a control signal for controlling the robot's driving generated based on image information acquired from an electronic device can be transmitted to the robot. .
또한, 로봇 제어 방법은 로봇에 장착된 전자 장치의 센싱부를 통해, 실내 공간에서 로봇의 주행을 위한 시각적 측위를 수행하기 위하여, 실내 공간에 대한 영상 정보를 획득하는 단계, 서버가 시각적 측위를 수행하도록, 영상 정보를 서버로 전송하는 단계 및 서버로부터, 시각적 측위의 결과에 기반하여 생성된 제어 신호를 수신하는 것에 응답하여, 로봇이 제어 신호에 기반하여 실내 공간에서 주행하도록 제어 신호를 로봇으로 전달하는 단계를 포함할 수 있다.In addition, the robot control method includes obtaining image information about the indoor space through a sensing unit of an electronic device mounted on the robot to perform visual positioning for the robot to run in the indoor space, and allowing the server to perform visual positioning. , transmitting image information to a server and, in response to receiving a control signal generated based on the result of visual positioning from the server, transmitting a control signal to the robot so that the robot runs in an indoor space based on the control signal. May include steps.
나아가, 전자기기에서 하나 이상의 프로세스에 의하여 실행되며, 컴퓨터로 판독될 수 있는 기록매체에 저장된 프로그램으로서, 프로그램은, 로봇에 장착된 전자 장치의 센싱부를 통해, 실내 공간에서 로봇의 주행을 위한 시각적 측위를 수행하기 위하여, 실내 공간에 대한 영상 정보를 획득하는 단계, 서버가 시각적 측위를 수행하도록, 영상 정보를 서버로 전송하는 단계, 및 서버로부터, 시각적 측위의 결과에 기반하여 생성된 제어 신호를 수신하는 것에 응답하여, 로봇이 제어 신호에 기반하여 실내 공간에서 주행하도록, 제어 신호를 로봇으로 전달하는 단계를 수행하는 명령어들을 포함하는 것을 특징으로 할 수 있다.Furthermore, it is a program that is executed by one or more processes in an electronic device and stored in a computer-readable recording medium, and the program provides visual positioning for the robot to run in an indoor space through a sensing unit of the electronic device mounted on the robot. In order to perform, obtaining image information about the indoor space, transmitting the image information to the server so that the server performs visual positioning, and receiving a control signal generated based on the result of the visual positioning from the server. In response to doing so, it may be characterized as including instructions for transmitting a control signal to the robot so that the robot runs in an indoor space based on the control signal.
위에서 살펴본 바와 같이, 본 발명에 따라 로봇에 장착되는 전자 장치 및 로봇 제어 시스템은, 로봇에 장착되어 로봇의 주행과 관련된 정보를 획득하고, 획득된 정보를 이용하여 서버와 통신함으로써, 로봇의 종류 또는 사양에 관계없이 서버에 의해 제어되는 로봇 제어 환경을 제공할 수 있다.As seen above, the electronic device and robot control system mounted on the robot according to the present invention are mounted on the robot to obtain information related to the running of the robot, and communicate with the server using the obtained information to determine the type of robot or Regardless of specifications, a robot control environment controlled by a server can be provided.
나아가, 본 발명에 따른 로봇에 장착되는 전자 장치 및 로봇 제어 시스템은, 서로 다른 위치에서 획득한, 전자 장치가 획득한 정보 및 로봇이 획득한 정보를 함께 이용하여 시각적 측위를 통해 제어 신호를 생성하도록 함으로써, 서버에 의한 로봇 제어의 정밀도를 향상시킬 수 있다.Furthermore, the electronic device and robot control system mounted on the robot according to the present invention use the information acquired by the electronic device and the information acquired by the robot together to generate a control signal through visual positioning. By doing so, the precision of robot control by the server can be improved.
또한, 본 발명에 따른 로봇에 장착되는 전자 장치 및 로봇 제어 시스템은, 서버에서 제공된 제어 신호 뿐만 아니라, 전자 장치에 의해 획득된 정보에 기반한 주행 보조 정보를 통해서도 로봇의 주행을 제어함으로써, 실내 공간에서 장애물에 유연하게 대처할 수 있는 로봇 제어 환경을 제공할 수 있다.In addition, the electronic device and robot control system mounted on the robot according to the present invention control the robot's driving not only through control signals provided from the server, but also through driving assistance information based on information acquired by the electronic device, thereby controlling the robot's driving in an indoor space. It is possible to provide a robot control environment that can flexibly respond to obstacles.
도 1 및 도 2는, 본 발명에 따른 로봇에 장착되는 전자 장치 및 로봇 제어 시스템을 설명하기 위한 개념도다.
도 3은, 일 실시 예에 따른 전자 장치가 로봇을 제어하는 방법을 나타내는 흐름도다.
도 4는, 일 실시 예에 따른 서버가 로봇을 제어하기 위한 제어 신호를 생성하는 방법을 나타내는 흐름도다.
도 5는, 도 2의 로봇 제어 시스템이 로봇의 주행을 제어하는 제어 신호를 로봇에 제공하는 흐름을 나타내는 흐름도다.
도 6은, 도 2의 로봇 제어 시스템이 로봇 영상 정보를 함께 이용하여 생성된 제어 신호를 로봇에 제공하는 흐름을 나타내는 흐름도다.
도 7은, 일 실시 예에 따라 제2 카메라, 관성 센서 및 프로세서를 더 포함하는, 전자 장치 및 로봇 제어 시스템을 설명하기 위한 개념도다.
도 8은, 도 7의 센싱부가 획득한 깊이 정보 및 관성 정보에 기반하여 주행 보조 정보를 획득하고, 로봇에 전달하는 방법을 나타내는 흐름도다.
도 9는, 도 7의 로봇 제어 시스템이 로봇의 주행을 제어하는 제어 신호를 로봇에 제공하는 흐름을 나타내는 흐름도다.
도 10은 도 7의 로봇 제어 시스템이 로봇 영상 정보를 함께 이용하여 생성된 제어 신호를 로봇에 제공하는 흐름을 나타내는 흐름도다.
도 11은 다른 실시 예에 따른, 로봇에 장착되는 전자 장치 및 로봇 제어 시스템을 설명하기 위한 개념도다.
도 12는, 도 11의 전자 장치가 영상 정보를 로봇으로 전송하는 방법을 나타내는 흐름도다.
도 13은, 도 11의 로봇 제어 시스템이 로봇의 주행을 제어하는 제어 신호를 로봇에 제공하는 흐름을 나타내는 흐름도다.
도 14는, 도 11의 로봇 제어 시스템이 로봇 영상 정보를 함께 이용하여 생성된 제어 신호를 로봇에 제공하는 흐름을 나타내는 흐름도다.1 and 2 are conceptual diagrams for explaining an electronic device and a robot control system mounted on a robot according to the present invention.
Figure 3 is a flowchart showing a method by which an electronic device controls a robot, according to an embodiment.
Figure 4 is a flowchart showing a method for a server to generate a control signal to control a robot, according to an embodiment.
FIG. 5 is a flowchart showing how the robot control system of FIG. 2 provides control signals for controlling the running of the robot to the robot.
FIG. 6 is a flowchart showing how the robot control system of FIG. 2 provides a control signal generated using robot image information to the robot.
FIG. 7 is a conceptual diagram for explaining an electronic device and a robot control system further including a second camera, an inertial sensor, and a processor, according to an embodiment.
FIG. 8 is a flowchart showing a method of acquiring driving assistance information based on depth information and inertia information acquired by the sensing unit of FIG. 7 and transmitting it to the robot.
FIG. 9 is a flowchart showing how the robot control system of FIG. 7 provides control signals for controlling the running of the robot to the robot.
FIG. 10 is a flowchart showing how the robot control system of FIG. 7 provides a control signal generated using robot image information to the robot.
Figure 11 is a conceptual diagram for explaining an electronic device mounted on a robot and a robot control system according to another embodiment.
FIG. 12 is a flowchart showing a method by which the electronic device of FIG. 11 transmits image information to a robot.
FIG. 13 is a flowchart showing how the robot control system of FIG. 11 provides control signals for controlling the running of the robot to the robot.
FIG. 14 is a flowchart showing how the robot control system of FIG. 11 provides a control signal generated using robot image information to the robot.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소에는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. Hereinafter, embodiments disclosed in the present specification will be described in detail with reference to the accompanying drawings. However, identical or similar components will be assigned the same reference numbers regardless of drawing symbols, and duplicate descriptions thereof will be omitted. The suffixes “module” and “part” for components used in the following description are given or used interchangeably only for the ease of preparing the specification, and do not have distinct meanings or roles in themselves. Additionally, in describing the embodiments disclosed in this specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in this specification, the detailed descriptions will be omitted. In addition, the attached drawings are only for easy understanding of the embodiments disclosed in this specification, and the technical idea disclosed in this specification is not limited by the attached drawings, and all changes included in the spirit and technical scope of the present invention are not limited. , should be understood to include equivalents or substitutes.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms containing ordinal numbers, such as first, second, etc., may be used to describe various components, but the components are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is said to be "connected" or "connected" to another component, it is understood that it may be directly connected to or connected to the other component, but that other components may exist in between. It should be. On the other hand, when it is mentioned that a component is “directly connected” or “directly connected” to another component, it should be understood that there are no other components in between.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. Singular expressions include plural expressions unless the context clearly dictates otherwise.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this application, terms such as "comprise" or "have" are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that this does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof.
본 발명은 로봇에 장착되는 전자 장치, 로봇 제어 시스템 및 방법을 제공하는 것으로서, 보다 구체적으로 본 발명은, 로봇에 장착되어 로봇이 주행하는 실내 공간에 관한 정보를 획득하고, 서버가 생성한 로봇의 주행을 제어하기 위한 제어 신호를 통해 로봇의 주행을 제어하는 전자 장치, 시스템 및 방법에 관한 것이다.The present invention provides an electronic device mounted on a robot, a robot control system, and a method, More specifically, the present invention relates to an electronic device, a system, and It's about method.
이하에서는, 첨부된 도면과 함께, 로봇에 장착되는 전자 장치 및 로봇 제어 시스템에 대하여 살펴보도록 한다. 도 1 및 도 2는, 본 발명에 따른 로봇에 장착되는 전자 장치 및 로봇 제어 시스템을 설명하기 위한 개념도다. Below, we will look at the electronic devices and robot control system mounted on the robot along with the attached drawings. 1 and 2 are conceptual diagrams for explaining an electronic device and a robot control system mounted on a robot according to the present invention.
예를 들어, 도 1에 도시된 것과 같이, 기술이 발전함에 따라 로봇의 활용도는 점차적으로 높아지고 있다. 종래 로봇은 특수한 산업분야(예를 들어, 산업 자동화 관련 분야)에서 활용되었으나, 점차적으로 인간이나 설비를 위해 유용한 작업을 수행할 수 있는 서비스 로봇으로 변모하고 있다.For example, as shown in Figure 1, as technology develops, the utilization of robots is gradually increasing. Conventionally, robots have been used in special industrial fields (for example, fields related to industrial automation), but they are gradually transforming into service robots that can perform useful tasks for humans or facilities.
이와 같이 다양한 서비스를 제공할 수 있는 로봇은, 부여된 임무를 수행하기 위하여 도 1에 도시된 것과 같은 공간(10)을 주행하도록 이루어질 수 있다. 로봇이 주행하는 공간의 종류에는 제한이 없으며, 필요에 따라 실내 공간 및 실외 공간 중 적어도 하나를 주행하도록 이루어질 수 있다. 예를 들어, 실내 공간은 백화점, 공항, 호텔, 학교, 빌딩, 지하철역, 기차역, 서점 등과 같이 다양한 공간일 수 있다. 로봇은, 이와 같이, 다양한 공간에 배치되어 인간에게 유용한 서비스를 제공하도록 이루어질 수 있다. 다만, 아래에서는 설명의 편의를 위하여 공간(10)은 실내 공간을 의미하는 것으로 가정한다.A robot capable of providing various services as described above may be configured to travel in a
한편, 로봇을 이용하여 다양한 서비스를 제공하기 위해서는, 로봇을 정확하게 제어하는 것이 매우 중요한 요소이다. 이에, 본 발명은 로봇(100)에 장착된 전자 장치(110)를 이용하여 로봇(100)의 사양 및 종류와 관계없이, 서버(20)를 통해 로봇(100)을 제어할 수 있는 방법에 대하여 제안한다.Meanwhile, in order to provide various services using robots, accurate control of the robot is a very important factor. Accordingly, the present invention relates to a method of controlling the
도 1 및 도 2에 도시된 것과 같이, 본 발명의 로봇 제어 시스템은 로봇(100)에 장착되는 전자 장치(110) 및 공간(10)에서 로봇(100)의 주행을 제어하기 위한 제어 신호를 생성하는 서버(20)를 포함할 수 있다. 이 때, 전자 장치(110)는 서버(20)와의 통신을 통해 로봇(100)의 주행을 제어할 수 있다.As shown in FIGS. 1 and 2, the robot control system of the present invention generates control signals for controlling the
일 실시 예에 따르면, 전자 장치(110)는 전자 장치(110)의 센싱부(120)로부터 수신되는 영상 정보, 로봇(100)으로부터 수신되는 영상 정보, 및 로봇(100)에 구비된 센서로부터 수신되는 정보 중 적어도 하나를 활용하여, 로봇(100)의 주행을 제어하거나, 로봇(100)에 대한 적절한 제어를 수행할 수 있다. According to one embodiment, the
도 2를 참조하면, 일 실시 예에 따른 전자 장치(110)는, 센싱부(120), 통신부(130), 인터페이스부(140) 및 인증부(150) 중 적어도 하나를 포함할 수 있다.Referring to FIG. 2 , the
일 실시 예에 따르면, 통신부(130)는, 서버(20)와 유선 또는 무선으로 통신할 수 있다. 통신부(130)는 서버(20)와의 통신을 통해, 센싱부(120)를 이용하여 획득한 영상 정보를 서버(20)로 송신하고, 서버(20)로부터 생성된 제어 신호를 수신할 수 있다.According to one embodiment, the
여기에서, 서버(20)는, 클라우드 서버 또는 데이터베이스 중 적어도 하나를 포함하도록 구성될 수 있다. 한편, 서버(20)는, 전자 장치(110)로부터 수신한 데이터에 대한 데이터 처리 또는 데이터 연산 등을 수행할 수 있으며, 본 발명에서는 이러한 방식에 대한 특별한 제한을 두지 않는다.Here, the
또한, 서버(20)는 로봇(100)이 주행하는 공간(10)과 원격지에 존재할 수 있으나, 이에 한정되는 것은 아니며, 설치형 로봇(installed robot)의 경우, 서버(20)는 공간(10) 내에서 로봇(100)과 함께 배치되고 유선으로 전자 장치(110) 및/또는 로봇(100)과 연결될 수 있다.In addition, the
한편, 통신부(130)는 통신하는 디바이스의 통신 규격에 따라 다양한 통신 방식을 지원할 수 있다.Meanwhile, the
예를 들어, 통신부(130)는, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced), 5G(5th Generation Mobile Telecommunication ), 블루투스(Bluetooth™RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra-Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus), 및 이더넷(ethernet) 기술 중 적어도 하나를 이용하여, 서버(20)와 통신하도록 이루어질 수 있다.For example, the
다음으로, 일 실시 예에 따른 센싱부(120)는 로봇(100)이 주행하는 공간(10)에 대한 정보를 획득하도록 구성될 수 있다. 일 실시 예에 따르면, 센싱부(120)는 적어도 하나의 카메라 및 센서를 포함하고, 적어도 하나의 카메라 및 센서를 통해 로봇(100)이 주행하는 공간(10)에 대한 정보를 획득할 수 있다. 예를 들어, 센싱부(120)는 제1 카메라(121)를 이용하여, 로봇(100)이 주행하는 실내 공간(10)에 대한 영상 정보를 획득할 수 있다. Next, the
이 때, 제1 카메라(121)는 전자 장치(110) 상에서 로봇(100)의 전면과 정렬되도록 배치될 수 있다. 또한, 제1 카메라(121)는 로봇(100)의 전방, 측방 및 상방에 대한 영상 정보를 획득할 수 있는 광각 렌즈 또는 어안 렌즈를 포함할 수 있으나, 이에 한정되는 것은 아니다. 다만, 이에 대한 구체적인 설명은 아래의 도 7에 대한 설명에서 후술한다.At this time, the
일 실시 예에 따른 센싱부(120)는 획득한 정보를 통신부(130)로 전달할 수 있다. 구체적으로 센싱부(120)는 획득한 정보가 통신부(130)를 통해 서버(20)로 송신되도록, 획득한 정보를 통신부(130)로 전달할 수 있다. 다른 실시 예에 따른 센싱부(120)는 획득한 정보를 인증부(150)로 전달할 수 있다. 구체적으로 센싱부(120)는 획득한 정보가 인증부(150)를 통해 통신부(130)로 전달되도록, 획득한 정보를 인증부(150)로 전달할 수 있다.The
다음으로 인터페이스부(140)는, 로봇(100)과 전자 장치(110) 간의 데이터 통신을 수행하도록 구성될 수 있다. 본 발명에서 인터페이스부(140)는 도시된 바와 같이 로봇(100)과 통신할 수 있다.Next, the
일 실시 예에 따르면, 인터페이스부(140)는 로봇(100)과의 데이터 통신을 통해, 통신부(130)를 통해 서버(20)로부터 획득한 제어 신호를 로봇(100)으로 전달하도록 구성될 수 있다.According to one embodiment, the
다른 실시 예에 따르면, 인터페이스부(140)는 로봇(100)과의 데이터 통신을 통해, 인증부(150)로부터 전달된 정보를 로봇(100)으로 전달하도록 구성될 수 있다.According to another embodiment, the
또 다른 실시 예에 따르면, 인터페이스부(140)는 로봇(100)으로부터, 로봇(100)이 획득한 정보를 수신할 수 있다. 예를 들어, 전자 장치(110)는 인터페이스부(140)를 통해 로봇(100)으로부터, 로봇(100)에 배치된 센서가 획득한 로봇 영상 정보를 수신할 수 있다.According to another embodiment, the
한편, 인터페이스부(140)는 통신하는 디바이스의 통신 규격에 따라 다양한 통신 방식을 지원할 수 있다.Meanwhile, the
예를 들어, 인터페이스부(140)는, WLAN, Wi-Fi, Wi-Fi Direct, DLNA, 블루투스(Bluetooth™RFID, 적외선 통신, UWB, ZigBee, NFC, Wi-Fi Direct, Wireless USB, 이더넷(ethernet), CAN(controller area network), UART(universal asynchronous receiver/transmitter)와 같은 통신 기술 중 적어도 하나를 이용하여, 로봇(100)과 통신하도록 구성될 수 있다.For example, the
다음으로, 인증부(150)는 센싱부(120)가 획득한 정보를 암호화하고, 암호화된 데이터에 서버(20)가 인증할 수 있는 인증 정보를 삽입하도록 구성될 수 있다.Next, the
일 실시 예에 따른 인증부(150)는 기 설정된 확인 권한을 갖는 서버(20)가 센싱부(120)를 통해 획득한 영상 정보를 확인할 수 있도록 영상 정보에 대한 암호화를 수행할 수 있다.The
또한, 일 실시 예에 따른 인증부(150)는 암호화된 데이터에, 전자 장치(110) 및 로봇(100) 중 적어도 하나를 식별할 수 있는 인증 정보를 삽입할 수 있다. 이 때, 인증 정보는 전자 장치(110)의 고유한 일련번호, 로봇(100)의 고유한 일련번호, 로봇(100)의 종류, 로봇(100)의 사양, 로봇(100)에 부여된 임무 정보, 로봇(100)의 상태 정보(예를 들어, 전원 상태, 고장 유무, 배터리 상태 등), 전자 장치(110)와 로봇(100)의 통신 상태에 관한 정보 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니며 전자 장치(110) 및 로봇(100) 중 적어도 하나를 식별할 수 있는 다양한 정보로 이해될 수 있다.Additionally, the
일 실시 예에 따르면, 서버(20)는 통신부(130)를 통해 수신한 데이터(또는, 영상 정보)에 대한 복호화를 수행함으로써, 영상 정보를 확인할 수 있다. 또한, 서버(20)는 영상 정보에 포함된 인정 정보를 식별함으로써, 전자 장치(110) 및 로봇(100) 중 적어도 하나에 대해 식별할 수 있다. 단, 이에 대한 구체적인 설명은 후술한다.According to one embodiment, the
도 3은, 일 실시 예에 따른 전자 장치가 로봇을 제어하는 방법을 나타내는 흐름도다. 도 4는, 일 실시 예에 따른 서버가 로봇을 제어하기 위한 제어 신호를 생성하는 방법을 나타내는 흐름도다. 도 5는, 도 2의 로봇 제어 시스템이 로봇의 주행을 제어하는 제어 신호를 로봇에 제공하는 흐름을 나타내는 흐름도다.Figure 3 is a flowchart showing a method by which an electronic device controls a robot, according to an embodiment. Figure 4 is a flowchart showing a method for a server to generate a control signal to control a robot, according to an embodiment. FIG. 5 is a flowchart showing how the robot control system of FIG. 2 provides control signals for controlling the running of the robot to the robot.
도 2 내지 도 5를 함께 참조하면, 일 실시 예에 따른 전자 장치(110)는 센싱부(120)를 통해 획득한 영상 정보를, 통신부(130)를 통해 서버(20)로 전달하고, 서버(20)가 생성한 제어 신호를 인터페이스부(140)를 통해 로봇(100)으로 전달함으로써, 공간(10)에서 로봇(100)의 주행을 제어할 수 있다.Referring to FIGS. 2 to 5 together, the
일 실시 예에 따르면, 전자 장치(110)는 동작 301에서, 실내 공간(10)에서 로봇(100)의 주행을 위한 시각적 측위(visual localization)를 수행하기 위하여, 센싱부(120)를 이용하여 로봇(100)이 주행하는 실내 공간(10)에 대한 영상 정보를 획득할 수 있다.According to one embodiment, in
예를 들어, 전자 장치(110)는 동작 301에서 센싱부(120)에 포함된 제1 카메라(121)를 통해 실내 공간(10)에 대한 영상을 획득할 수 있다. 다른 예를 들면, 전자 장치(110)는 동작 301에서 센싱부(120)를 통해 로봇의 주행 속도를 획득할 수 있다.For example, the
일 실시 예에 따르면, 전자 장치(110)는, 서버(20)가 영상 정보를 확인 가능하도록, 동작 501에서 인증부(150)를 통해 영상 정보를 암호화함으로써 암호화된 데이터를 생성할 수 있다. 또한, 일 실시 예에 따른 전자 장치(110)는, 서버(20)가 전자 장치(110) 및 로봇(100) 중 적어도 하나를 식별 가능하도록, 동작 501에서 인증부(150)를 통해, 암호화된 데이터에 인증 정보를 삽입할 수 있다.According to one embodiment, the
일 실시 예에 따르면, 전자 장치(110)는 동작 303에서, 동작 301을 통해 획득한 영상 정보를 통신부(130)를 통해 서버(20)로 전송할 수 있다. 예를 들어, 전자 장치(110)는 동작 303에서, 제1 카메라(121)를 통해 획득한 로봇(100)의 전방, 측방 및 상방 중 적어도 하나에 대한 영상 정보를, 통신부(130)를 통해 서버(20)로 전송할 수 있다.According to one embodiment, in
이 때, 동작 303에서 서버(20)로 전송되는 영상 정보는, 동작 501에서 인증부(150)를 통해 암호화되고, 인증 정보가 삽입된 데이터로 이해될 수 있다.At this time, the image information transmitted to the
일 실시 예에 따르면, 서버(20)는 동작 503에서, 동작 303을 통해 전자 장치(110)로부터 영상 정보를 수신하는 것에 응답하여, 영상 정보에 대한 복호화를 수행함으로써 영상 정보를 확인할 수 있다. 또한, 서버(20)는 동작 503에서, 전자 장치(110)로부터 영상 정보를 수신하는 것에 응답하여, 암호화된 영상 정보에 삽입된 인증 정보를 확인함으로써, 전자 장치(110) 및 로봇(100) 중 적어도 하나를 식별할 수 있다.According to one embodiment, in
다른 실시 예(미도시)에 따르면, 동작 501의 암호화 동작 및 동작 503의 복호화 동작은 생략될 수 있다.According to another embodiment (not shown), the encryption operation of
일 실시 예에 따르면, 서버(20)는 동작 401에서 전자 장치(110)로부터 수신한 영상 정보를 이용하여 실내 공간(10)에서 로봇(100)에 대한 시각적 측위(visual localization)를 수행할 수 있다. 구체적으로, 서버(20)는 동작 401에서 전자 장치(110)로부터 수신한 영상 정보를 이용하여 실내 공간(10)에서 로봇(100)의 위치를 추정하는 시각적 측위를 수행할 수 있다.According to one embodiment, the
나아가, 서버(20)는 전자 장치(110)로부터 수신한 영상 정보와, 서버(20)에 저장된 지도 정보를 비교하여, 로봇(100)의 현재 위치에 대응되는 위치 정보를 추출할 수 있다. 이때, 공간(10)에 대한 지도 정보는 사전에 공간(10)을 이동하는 적어도 하나의 로봇에 의해, SLAM(Simultaneous Localization and Mapping)에 기반하여 작성된 지도를 포함할 수 있다. 특히, 공간(10)에 대한 지도는, 이전에 획득한 공간(10)에 대한 영상 정보에 기반하여 기 생성된 지도일 수 있다. 이 경우, 서버(20)는 i)영상 정보와 기 생성된 지도를 구성하는 이미지들 간의 이미지 비교를 이용하여, 영상 정보와 가장 비슷한 이미지를 특정하고, ii)특정된 이미지에 매칭된 위치 정보를 획득하는 방식으로 로봇(100)의 위치 정보를 특정할 수 있다.Furthermore, the
즉, 서버(20)는 동작 401에서, 전자 장치(110)로부터 수신한 영상 정보를 이용한 시각적 측위를 통해, 공간(10) 내에서 로봇(100)의 현재 위치를 추정할 수 있다.That is, in
일 실시 예에 따르면, 서버(20)는 동작 403에서, 동작 401에서의 시각적 측위의 결과에 기반하여, 실내 공간(10)에서 로봇(100)의 주행을 제어하기 위한 제어 신호를 생성할 수 있다. 구체적으로, 서버(20)는 동작 403에서, 동작 401의 시각적 측위를 통해 획득한 로봇(100)의 위치 정보에 근거하여, 실내 공간(10)에서 로봇(100)의 주행을 제어하기 위한 제어 신호를 생성할 수 있다.According to one embodiment, in
이 때, 제어 신호는 로봇(100)의 주행 방향, 주행 속도 및 주행 경로 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니며, 로봇(100)의 주행을 위한 다양한 제어 명령을 포함하는 것으로 이해될 수 있다.At this time, the control signal may include at least one of the traveling direction, traveling speed, and traveling path of the
일 실시 예에 따르면, 서버(20)는 동작 305에서 로봇(100)의 주행을 제어하기 위한 제어 신호를 전자 장치(110)로 송신할 수 있다. 한편, 전자 장치(110)는 동작 305에서 서버(20)로부터, 시각적 측위의 결과에 기반하여 생성된 제어 신호를 통신부(130)를 통해 수신할 수 있다.According to one embodiment, the
일 실시 예에 따르면, 전자 장치(110)는 동작 307에서 인터페이스부(140)를 통해 제어 신호를 로봇(100)으로 전송할 수 있다. 보다 구체적으로, 전자 장치(110)는 동작 307에서, 동작 305에서 서버(20)로부터 수신한 제어 신호를, 인터페이스부(140)를 통해 로봇(100)으로 전달할 수 있다.According to one embodiment, the
일 실시 예에 따른 전자 장치(110)는 동작 307에서, 서버(20)로부터 통신부(130)를 통해 수신한 제어 신호를, 인터페이스부(140)를 통해 로봇(100)으로 전달함으로써, 실내 공간(10) 내에서의 로봇(100)의 주행을 제어할 수 있다.In
상술한 바와 같이, 본 발명에 따른 전자 장치(110)는 실내 공간(10)에 대한 영상 정보를 서버(20)로 전송하고, 서버(20)가 영상 정보를 이용한 시각적 측위에 기반하여 생성한 제어 신호를 로봇(100)을 전달함으로써, 실내 공간(10)에서 로봇(100)의 주행을 제어할 수 있다.As described above, the
도 6은, 도 2의 로봇 제어 시스템이 로봇 영상 정보를 함께 이용하여 생성된 제어 신호를 로봇에 제공하는 흐름을 나타내는 흐름도다.FIG. 6 is a flowchart showing how the robot control system of FIG. 2 provides a control signal generated using robot image information to the robot.
도 2 내지 도 6을 함께 참조하면, 일 실시 예에 따른 전자 장치(110)는 로봇(100)으로부터 수신한 로봇 영상 정보를 영상 정보와 함께 서버(20)로 전송할 수 있다. 보다 구체적으로, 전자 장치(110)는 로봇(100)으로부터 수신한 로봇 영상 정보를 영상 정보와 함께 서버(20)로 전송함으로써, 영상 정보 및 로봇 영상 정보를 이용한 시각적 측위에 기반하여 생성된 제어 신호를 로봇(100)으로 전달할 수 있다. 다만, 상술한 구성과 동일하거나 실질적으로 동일한 구성에 대해서는 동일한 참조번호를 사용하였으며, 중복되는 설명은 생략한다.Referring to FIGS. 2 to 6 together, the
일 실시 예에 따르면, 로봇(100)은 동작 601에서 로봇(100)에 배치된 로봇 센서를 통해 로봇 영상 정보를 획득할 수 있다. 이 때, 로봇 영상 정보는 로봇(100)에 배치된 로봇 센서를 통해 로봇(100)이 주행하는 실내 공간(10)에 대해 획득한 영상 정보로 이해될 수 있다.According to one embodiment, the
한편, 로봇(100)에 배치된 로봇 센서는 전자 장치(110)의 제1 카메라(121)와 이격되도록 배치될 수 있다. 예를 들어, 로봇 센서는 로봇(100) 상에서 지면으로부터 제1 높이를 갖도록 배치되고, 전자 장치(110)의 제1 카메라(121)는 전자 장치(110) 상에서 제1 높이보다 높은 제2 높이를 갖도록 배치될 수 있다. 다른 예를 들면, 전자 장치(110)의 제1 카메라(121)는 로봇(100)의 전면을 향하도록 배치되고, 로봇(100)의 로봇 센서는 로봇(100)의 후면을 향하도록 배치될 수 있으나, 제1 카메라(121)와 로봇 센서의 배치가 상술한 예시에 한정되는 것은 아니다.Meanwhile, the robot sensor disposed on the
일 실시 예에 따르면, 전자 장치(110)는 동작 603에서 로봇(100)으로부터 로봇(100)의 센서를 통해 획득한 로봇 영상 정보를, 인터페이스부(140)를 통해 수신할 수 있다. According to one embodiment, the
나아가, 전자 장치(110)는 동작 605에서, 영상 정보와 로봇 영상 정보를 함께 통신부(130)를 통해 서버(20)로 전송할 수 있다. 보다 구체적으로, 전자 장치(110)는 동작 605에서, 센싱부(120)를 통해 획득한 영상 정보 및 로봇(100)으로부터 획득한 로봇 영상 정보를 함께, 통신부(130)를 통해 서버(20)로 전송할 수 있다. 이 때, 영상 정보와 로봇 영상 정보는 순차적으로 전송되거나, 동시에 전송될 수 있다.Furthermore, in operation 605, the
일 실시 예에 따른 서버(20)는 전자 장치(110)로부터 수신한 영상 정보 및 로봇 영상 정보를 이용하여 시각적 측위를 수행하고, 시각적 측위의 결과에 기반하여, 로봇(100)의 주행을 제어하기 위한 제어 신호를 생성할 수 있다. 보다 구체적으로, 서버(20)는 전자 장치(110)로부터, 서로 다른 위치에서 획득한 영상 정보 및 로봇 영상 정보를 이용하여 시각적 측위를 수행하고, 시각적 측위의 결과에 기반하여 제어 신호를 생성할 수 있다.The
즉, 본 발명에 따른 전자 장치(110)는 센싱부(120)를 통해 획득한 영상 정보 및 로봇(100)으로부터 수신한 로봇 영상 정보를 서버(20)로 전송하고, 서버(20)가 영상 정보 및 로봇 영상 정보를 이용한 시각적 측위의 결과에 기반하여 생성한 제어 신호를 로봇(100)으로 전달함으로써, 공간(10)에서의 로봇(100)의 주행을 제어할 수 있다.That is, the
도 7은, 일 실시 예에 따라 제2 카메라, 관성 센서 및 프로세서를 더 포함하는, 전자 장치 및 로봇 제어 시스템을 설명하기 위한 개념도다. 도 8은, 도 7의 센싱부가 획득한 깊이 정보 및 관성 정보에 기반하여 주행 보조 정보를 획득하고, 로봇에 전달하는 방법을 나타내는 흐름도다. 도 9는, 도 7의 로봇 제어 시스템이 로봇의 주행을 제어하는 제어 신호를 로봇에 제공하는 흐름을 나타내는 흐름도다.FIG. 7 is a conceptual diagram for explaining an electronic device and a robot control system further including a second camera, an inertial sensor, and a processor, according to an embodiment. FIG. 8 is a flowchart showing a method of acquiring driving assistance information based on depth information and inertia information acquired by the sensing unit of FIG. 7 and transmitting it to the robot. FIG. 9 is a flowchart showing how the robot control system of FIG. 7 provides control signals for controlling the running of the robot to the robot.
도 7 내지 도 9를 함께 참조하면, 일 실시 예에 따른 전자 장치(110)는 제1 카메라(121)를 통해 획득한 영상 정보, 제2 카메라(122)를 통해 획득한 깊이 정보, 및 관성 센서(123)를 통해 획득한 관성 정보 중 적어도 일부를 서버(20)에 전송하고, 전송된 정보를 이용한 시각적 측위에 기반하여 생성된 제어 신호를 서버(20)에서 로봇(100)으로 전달할 수 있다. 다만, 상술한 구성과 동일하거나 실질적으로 동일한 구성에 대해서는 동일한 참조번호를 사용하였으며, 중복되는 설명은 생략한다.Referring to FIGS. 7 to 9 together, the
일 실시 예에 따르면, 전자 장치(110)는 센싱부(120)와 연결되는 프로세서(160)를 포함할 수 있다.According to one embodiment, the
일 실시 예에 따른 프로세서(160)는, 본 발명과 관련된 로봇(100)에 장착되는 전자 장치(110)의 전반적인 동작을 제어하도록 구성될 수 있다. 예를 들어, 프로세서(160)는 위에서 살펴본 전자 장치(110)의 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리할 수 있다.The
특히, 프로세서(160)는 센싱부(120)를 통해 획득한 정보를 처리하고, 로봇(100)의 자율 주행을 보조하기 위한 주행 보조 정보를 생성할 수 있다. 이 때, 주행 보조 정보는 로봇(100)이 주행하는 공간(10)에서 로봇(100)과 인접한 장애물에 관한 정보를 포함할 수 있다.In particular, the
일 실시 예에 따르면, 센싱부(120)는 공간(10)에 대한 영상 정보를 획득하는 제1 카메라(121), 공간(10)에 대한 깊이 정보를 획득하는 제2 카메라(122) 및 로봇(100)의 관성 정보를 획득하는 관성 센서(123) 중 적어도 하나를 포함할 수 있다. According to one embodiment, the
일 실시 예에 따르면, 전자 장치(110)는 동작 801에서 센싱부(120)를 통해 공간(10)에 대한 깊이 정보 및 로봇(100)의 관성 정보를 획득할 수 있다. 보다 구체적으로, 전자 장치(110)는 동작 801에서 제2 카메라(122)를 통해 공간(10)에 대한 깊이 정보를 획득하고, 관성 센서(123)를 통해 로봇(100)의 관성 정보를 획득할 수 있다.According to one embodiment, the
일 실시 예에 따르면, 센싱부(120)에 포함되는 제1 카메라(121)는 서버(20)가 로봇(100)에 대한 시각적 측위를 수행하기 위한, 공간(10)에 대한 영상 정보를 획득할 수 있다. 이 때, 제1 카메라(121)는 로봇(100)의 전방, 측방 및 상방의 영상 정보를 획득할 수 있다. 예를 들어, 제1 카메라(121)는, 수직 화각 130도 이상, 수평 화각 180도 이상의 화각(FOV(field of view))을 갖는 렌즈(예: 광각 렌즈, 어안 렌즈)를 포함할 수 있다.According to one embodiment, the
일 실시 예에 따르면, 센싱부(120)의 제1 카메라(121)는 로봇(100)의 전면과 정렬되도록 배치되는 제1-1 카메라(121A) 및 전자 장치(110)의 상면에 배치되는 제1-2 카메라(121B)를 포함할 수 있다. 이때, 전자 장치(110)는 제1-1 카메라(121A)를 통해 로봇(100)의 전방 및 측방에 대한 영상 정보를 획득하고, 제1-2 카메라(121B)를 통해 로봇(100)의 상방에 대한 영상 정보를 획득할 수 있다. 즉, 센싱부(120)는 제1-1 카메라(121A) 및 제1-2 카메라(121B)를 통해 로봇(100)이 주행하는 실내 공간(10)의 전방, 측방 및 상방 대한 영상 정보를 획득할 수 있다.According to one embodiment, the
일 실시 예에 따르면, 센싱부(120)에 포함되는 제2 카메라(122)는 실내 공간(10)에 대한 깊이 정보를 획득하는 깊이 카메라(depth camera)로 이해될 수 있다. 예를 들어, 제2 카메라(122)는 2개 이상의 이미지 센서를 이용하여 생성한 입체 영상을 이용하는 스테레오 방식의 깊이 카메라, 광 신호의 지연 시간을 이용하는 ToF(time-of flight) 방식의 깊이 카메라, 또는 구조화된 빛을 대상에 투사하는 structured pattern 방식의 깊이 카메라 중 하나로 참조될 수 있으나, 이에 한정되는 것은 아니다.According to one embodiment, the
일 실시 예에 따르면, 센싱부(120)에 포함되는 제2 카메라(122)는 로봇(100)의 전방을 향하도록 배치되는 제2-1 카메라(122A) 및 로봇(100)의 후방을 향하도록 배치되는 제2-2 카메라(122B)를 포함할 수 있다. 나아가, 전자 장치(110)는 제2-1 카메라(122A)를 통해 로봇(100)의 전방 공간에 대한 깊이 정보를 획득하고, 제2-2 카메라(122B)를 통해 로봇(100)의 후방 공간에 대한 깊이 정보를 획득할 수 있다. 이 때, 제2-1 카메라(122A) 및 제2-2 카메라(122B)는 각각, 수직 화각 90도 이내, 수평 화각 90도 이내의 화각(FOV(field of view))을 갖는 렌즈를 포함할 수 있다.According to one embodiment, the
일 실시 예에 따르면, 센싱부(120)는 로봇(100)의 주행에 대한 관성 정보를 획득하는 관성 센서(123)(또는, IMU(inertial measurement unit) 센서)를 포함할 수 있다. 일 실시 예에 따른 전자 장치(110)는 센싱부(120)에 포함된 관성 센서(123)를 통해 로봇(100)의 관성력을 측정할 수 있다.According to one embodiment, the
일 실시 예에 따른 관성 센서(123)는 가속도 센서, 자이로 센서 및 지자기 센서를 포함할 수 있다. 일 실시 예에 따른 관성 센서(123)는 가속도 센서를 이용하여 가속도를 측정하고, 자이로 센서를 이용하여 각속도를 측정하고, 지자기 센서를 통해 획득한 가속도 및 각속도를 보정함으로써, 로봇(100)의 관성력 또는 기울어진 각도를 측정할 수 있다.The
일 실시 예에 따르면, 프로세서(160)는 동작 803에서, 제2 카메라(122)로부터 수신한 깊이 정보 및 관성 센서(123)로부터 수신한 관성 정보를 이용하여, 로봇(100)의 주행을 보조하는 주행 보조 정보를 생성할 수 있다. 예를 들어, 프로세서(160)는 제2 카메라(122)로부터 수신한 공간(10)에 대한 깊이 정보 및 관성 센서(123)로부터 수신한 관성 정보를 이용하여, 동작 803에서 공간(10) 내에서 로봇(100)과 인접한 장애물에 관한 정보(예: 장애물의 위치, 장애물의 크기)를 생성할 수 있다.According to one embodiment, in
일 실시 예에 따르면, 전자 장치(110)는 동작 901에서 통신부(130)를 통해 깊이 정보 및 관성 정보를 서버(20)로 전송할 수 있다. 보다 구체적으로, 전자 장치(110)는, 서버(20)가 영상 정보와 함께 깊이 정보 및 관성 정보를 이용한 시각적 측위에 기반하여 제어 신호를 생성하도록, 깊이 정보 및 관성 정보를 서버(20)로 전송할 수 있다.According to one embodiment, the
일 실시 예에 따르면, 서버(20)는 동작 401 및 동작 403에서 전자 장치(110)로부터 수신한 영상 정보와, 깊이 정보 및 관성 정보 중 적어도 하나를 이용한 시각적 측위에 기반하여 로봇(100)의 주행을 제어하기 위한 제어 신호를 생성할 수 있다. 예를 들어, 서버(20)는 전자 장치(110)로부터 수신한 영상 정보와 깊이 정보를 이용한 시각적 측위에 기반하여 제어 신호를 생성할 수 있다. 다른 예를 들어, 서버(20)는 전자 장치(110)로부터 수신한 영상 정보와 로봇(100)의 관성 정보를 이용한 시각적 측위에 기반하여 제어 신호를 생성할 수 있다.According to one embodiment, the
일 실시 예에 따르면, 전자 장치(110)는 동작 805에서, 주행 보조 정보 및 제어 신호 중 적어도 하나를 인터페이스부(140)를 통해 로봇(100)으로 전달할 수 있다. 예를 들어, 전자 장치(110)는 동작 805에서 주행 보조 정보 및 제어 신호를 함께 인터페이스부(140)를 통해 로봇(100)으로 전송할 수 있다. 다른 예를 들어, 전자 장치(110)는 동작 805에서 주행 보조 정보와 제어 신호를 순차적으로 인터페이스부(140)를 통해 로봇(100)으로 전송할 수 있다. 또 다른 예를 들면, 전자 장치(110)는 동작 803을 통해 생성한 주행 보조 정보를 로봇(100)으로 전송하고, 일정한 시간이 경과한 이후 서버(20)로부터 전달된 제어 신호를 로봇(100)으로 전송할 수 있다. 다만, 전자 장치(110)가 로봇(100)으로 주행 보조 정보 및 제어 신호를 전송하는 순서 또는 주기는 상술한 예시에 한정되는 것은 아니다.According to one embodiment, in
상술한 바와 같이 본 발명에 따른 전자 장치(110)는 실내 공간(10)에 대한 영상 정보와 함께 깊이 정보 및 관성 정보 중 적어도 하나를 서버(20)로 전송함으로써, 서버(20)가 실내 공간(10)에서의 로봇(100)의 위치를 추정하는 시각적 측위의 정밀도를 향상시킬 수 있다. 나아가, 전자 장치(110)는, 서버(20)가 영상 정보, 깊이 정보 및 관성 정보를 이용한 시각적 측위에 기반하여 생성한 제어 신호를 로봇(100)을 전달함으로써, 실내 공간(10)에서 로봇(100)의 주행을 제어할 수 있다.As described above, the
나아가, 본 발명에 따른 전자 장치(110)는, 서버(20)에서 제공된 제어 신호 뿐만 아니라, 전자 장치(110)에 의해 획득된 정보에 기반한 주행 보조 정보를 통해서도 로봇(100)의 주행을 제어함으로써, 실내 공간(10)에서 장애물에 유연하게 대처할 수 있는 로봇 제어 환경을 제공할 수 있다.Furthermore, the
도 10은, 도 7의 로봇 제어 시스템이 로봇 영상 정보를 함께 이용하여 생성된 제어 신호를 로봇에 제공하는 흐름을 나타내는 흐름도다.FIG. 10 is a flowchart showing how the robot control system of FIG. 7 provides a control signal generated using robot image information to the robot.
도 7 내지 도 10을 함께 참조하면, 일 실시 예에 따른 전자 장치(110)는 로봇(100)으로부터 수신한 로봇 영상 정보를 영상 정보와 함께 서버(20)로 전송할 수 있다. 보다 구체적으로, 전자 장치(110)는 로봇(100)으로부터 수신한 로봇 영상 정보를 영상 정보와 함께 서버(20)로 전송함으로써, 영상 정보 및 로봇 영상 정보를 이용한 시각적 측위에 기반하여 생성된 제어 신호를 로봇(100)으로 전달할 수 있다. 다만, 상술한 구성과 동일하거나 실질적으로 동일한 구성에 대해서는 동일한 참조번호를 사용하였으며, 중복되는 설명은 생략한다.Referring to FIGS. 7 to 10 together, the
일 실시 예에 따르면, 로봇(100)은 동작 601에서 로봇(100)에 배치된 로봇 센서를 통해 로봇 영상 정보를 획득할 수 있다. 이 때, 로봇 영상 정보는 로봇(100)이 주행하는 실내 공간(10)에 대해, 로봇(100)에 배치된 로봇 센서를 통해 획득한 영상 정보로 이해될 수 있다.According to one embodiment, the
일 실시 예에 따른 서버(20)는 전자 장치(110)로부터 수신한 영상 정보, 로봇 영상 정보, 깊이 정보 및 관성 정보 중 적어도 일부를 이용하여 시각적 측위를 수행하고, 시각적 측위의 결과에 기반하여, 로봇(100)의 주행을 제어하기 위한 제어 신호를 생성할 수 있다.The
즉, 본 발명에 따른 전자 장치(110)는 센싱부(120)를 통해 획득한 영상 정보, 깊이 정보 및 관성 정보와 로봇(100)으로부터 수신한 로봇 영상 정보를 서버(20)로 전송하고, 서버(20)가 영상 정보, 깊이 정보, 관성 정보 및 로봇 영상 정보를 이용한 시각적 측위의 결과에 기반하여 생성한 제어 신호를 로봇(100)으로 전달함으로써, 공간(10)에서의 로봇(100)의 주행을 제어할 수 있다.That is, the
상술한 바와 같이 본 발명에 따른 전자 장치(110)는 실내 공간(10)에 대한 영상 정보와 함께 로봇(100)이 측정한 로봇 영상 정보를 서버(20)로 전송함으로써, 서버(20)가 실내 공간(10)에서의 로봇(100)의 위치를 추정하는 시각적 측위의 정밀도를 향상시킬 수 있다. 나아가, 전자 장치(110)는, 서버(20)가 영상 정보 및 로봇 영상 정보를 이용한 시각적 측위에 기반하여 생성한 제어 신호를 로봇(100)을 전달함으로써, 실내 공간(10)에서 로봇(100)의 주행을 제어할 수 있다.As described above, the
도 11은 다른 실시 예에 따른, 로봇에 장착되는 전자 장치 및 로봇 제어 시스템을 설명하기 위한 개념도다. 도 12는, 도 11의 전자 장치가 영상 정보를 로봇으로 전송하는 방법을 나타내는 흐름도다. 도 13은, 도 11의 로봇 제어 시스템이 로봇의 주행을 제어하는 제어 신호를 로봇에 제공하는 흐름을 나타내는 흐름도다.Figure 11 is a conceptual diagram for explaining an electronic device and a robot control system mounted on a robot, according to another embodiment. FIG. 12 is a flowchart showing a method by which the electronic device of FIG. 11 transmits image information to a robot. FIG. 13 is a flowchart showing how the robot control system of FIG. 11 provides control signals for controlling the running of the robot to the robot.
도 13에 도시된 바와 같이, 본 발명의 로봇 제어 시스템은 로봇(100)에 장착되는 전자 장치(1210) 및 공간(10)에서 로봇(100)의 주행을 제어하기 위한 제어 신호를 생성하는 서버(20)를 포함할 수 있다. 이 때, 로봇(100)은 서버(20)와의 통신을 통해 영상 정보를 전송하고, 서버(20)가 생성한 제어 신호를 수신할 수 있다.As shown in FIG. 13, the robot control system of the present invention includes an
도 11 내지 도 13을 함께 참조하면, 일 실시 예에 따른 전자 장치(1210)는 로봇(100)이 주행하는 공간(10)에 대한 영상 정보를 획득하는 센싱부(1220), 영상 정보에 대한 암호화를 수행하고 인정 정보를 삽입하는 인증부(1250) 및 로봇(100)과의 데이터 통신을 수행하는 인터페이스부(1240)를 포함할 수 있다.Referring to FIGS. 11 to 13 together, the
이 때, 센싱부(1220), 인증부(1250) 및 인터페이스부(1240)는 각각 도 2 또는 도 7의 센싱부(120), 인증부(150) 및 인터페이스부(140)와 실질적으로 동일한 구성으로 이해될 수 있다. 따라서, 전술한 구성과 실질적으로 동일한 구성에 대한 중복되는 설명은 생략한다.At this time, the
이 때, 로봇(100)은 도 2 또는 도 7의 전자 장치(110)에 포함되는 통신부(130)와 실질적으로 동일한 구성을 포함할 수 있다. 예를 들어, 로봇(100)은 LTE, LTE-A, 5G 및 이더넷과 같은 통신 기술을 통해 서버(20)와 통신적으로(communicatively) 연결될 수 있다.At this time, the
일 실시 예에 따르면, 전자 장치(1210)는 동작 1201에서 센싱부(1220)(또는, 센싱부(1220)에 포함되는 제1 카메라(1221))를 통해 획득한 로봇(100)이 주행하는 실내 공간(10)에 대한 영상 정보를 획득할 수 있다. 이 때, 제1 카메라(1221)는 도 2 또는 도 7의 제1 카메라(121)와 실질적으로 동일한 구성으로 이해될 수 있다.According to one embodiment, the
일 실시 예에 따르면, 인증부(1250)는 기 설정된 확인 권한을 갖는 서버(20)가 영상 정보를 확인할 수 있도록, 센싱부(1220)로부터 획득한 영상 정보를 암호화함으로써 암호화된 데이터를 생성할 수 있다. 또한, 인증부(1250)는, 서버(20)가 로봇(100) 및 전자 장치(1210) 중 적어도 하나를 식별할 수 있도록, 암호화된 데이터에 로봇(100) 및 전자 장치(1210)와 관련된 인증 정보를 부가할 수 있다.According to one embodiment, the
일 실시 예에 따르면, 전자 장치(1210)는 동작 1203에서 영상 정보가 서버(20)로 전달되도록, 영상 정보를 인터페이스부(1240)를 통해 로봇(100)으로 전송할 수 있다.According to one embodiment, the
일 실시 예에 따르면, 로봇(100)은 동작 1205에서, 전자 장치(1210)로부터 수신한 영상 정보를 서버(20)로 전송할 수 있다. According to one embodiment, the
일 실시 예에 따르면, 서버(20)는 동작 1207에서, 로봇으로부터 수신한 영상 정보를 이용하는 시각적 측위를 수행하고, 시각적 측위의 결과에 기반하여, 실내 공간(10)에서 로봇(100)의 주행을 제어하기 위한 제어 신호를 생성할 수 있다.According to one embodiment, in
일 실시 예에 따르면, 서버(20)는 동작 1209에서, 전자 장치(1210)로부터 획득된 영상 정보에 근거하여 생성되고, 로봇(100)의 주행을 제어하기 위한 제어 신호를 로봇(100)으로 전송할 수 잇다.According to one embodiment, in operation 1209, the
상술한 바와 같이, 본 발명은 로봇(100)이 서버(20)와 통신적으로 연결되거나, 서버(20)와 통신 가능한 구성을 포함하는 경우, 전자 장치(1210)가 획득한 정보를 로봇(100)을 통해 서버(20)로 제공함으로써, 서버(20)가 로봇(100)의 주행을 제어하기 위한 제어 신호를 생성하여 로봇(100)으로 송신하도록 할 수 있다.As described above, the present invention provides that when the
도 14는, 도 11의 로봇 제어 시스템이 로봇 영상 정보를 함께 이용하여 생성된 제어 신호를 로봇에 제공하는 흐름을 나타내는 흐름도다.FIG. 14 is a flowchart showing how the robot control system of FIG. 11 provides a control signal generated using robot image information to the robot.
도 11 내지 도 14를 함께 참조하면, 일 실시 예에 따른 로봇(100)은 로봇(100)에 배치된 로봇 센서를 이용하여 획득한 로봇 영상 정보 및 전자 장치(1210)로부터 수신한 영상 정보를 서버(20)로 전송할 수 있다. 로봇(100)이 로봇 영상 정보 및 전자 장치(1210)로부터 수신한 영상 정보를 서버(20)로 전송함으로써, 서버(20)가 로봇 영상 정보 및 영상 정보를 이용하는 시각적 측위에 기반하여 생성한 제어 신호를 수신할 수 있다.Referring to FIGS. 11 to 14 together, the
다만, 상술한 구성과 동일하거나 실질적으로 동일한 구성에 대해서는 동일한 참조번호를 사용하였으며, 중복되는 설명은 생략한다.However, the same reference numbers are used for components that are identical or substantially the same as the above-described components, and overlapping descriptions are omitted.
일 실시 예에 따르면, 로봇(100)은 동작 1401에서 로봇(100)에 배치된 로봇 센서를 통해 로봇 영상 정보를 획득할 수 있다. 이 때, 로봇 영상 정보는 로봇(100)이 주행하는 실내 공간(10)에 대해 로봇(100)에 배치된 로봇 센서를 통해 획득한 영상 정보로 이해될 수 있다.According to one embodiment, the
일 실시 예에 따르면, 로봇(100)은 동작 1403에서, 전자 장치(1210)로부터 수신한 영상 정보 및 로봇 영상 정보를 서버(20)로 전송할 수 있다.According to one embodiment, the
일 실시 예에 따른 서버(20)는 동작 1207에서 전자 장치(1210)에서 로봇(100)을 통해 수신한 영상 정보 및 로봇 영상 정보 중 적어도 일부를 이용하여 시각적 측위를 수행하고, 시각적 측위의 결과에 기반하여, 로봇(100)의 주행을 제어하기 위한 제어 신호를 생성할 수 있다.In
일 실시 예에 따른 서버(20)는 동작 1209에서, 동작 1207을 통해 생성한 제어 신호를, 로봇(100)으로 전송할 수 있다. 로봇(100)은 동작 1209에서 서버(20)로부터 제어 신호를 수신할 수 있다.The
본 발명에 따른 로봇(100)은 전자 장치(1210)로부터 획득한 영상 정보와 로봇 센서를 통해 획득한 로봇 영상 정보를 서버(20)로 전송하고, 서버(20)가 영상 정보 및 로봇 영상 정보를 이용한 시각적 측위의 결과에 기반하여 생성한 제어 신호를 수신할 수 있다.The
상술한 바와 같이, 본 발명에 따른 로봇(100)은 전자 장치(1210)로부터 수신한 영상 정보와 함께 로봇(100)이 측정한 로봇 영상 정보를 서버(20)로 전송함으로써, 서버(20)가 실내 공간(10)에서의 로봇(100)의 위치를 추정하는 시각적 측위의 정밀도를 향상시킬 수 있다. 나아가, 로봇(100)은, 서버(20)가 영상 정보 및 로봇 영상 정보를 이용한 시각적 측위에 기반하여 생성한 제어 신호를 수신할 수 있다.As described above, the
한편, 위에서 살펴본 본 발명은, 컴퓨터에서 하나 이상의 프로세스에 의하여 실행되며, 이러한 컴퓨터로 판독될 수 있는 매체에 저장 가능한 프로그램으로서 구현될 수 있다.Meanwhile, the present invention discussed above can be implemented as a program that is executed by one or more processes on a computer and can be stored in a medium that can be read by such a computer.
나아가, 위에서 살펴본 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드 또는 명령어로서 구현하는 것이 가능하다. 즉, 본 발명은 프로그램의 형태로 제공될 수 있다. Furthermore, the present invention discussed above can be implemented as computer-readable codes or instructions on a program-recorded medium. That is, the present invention may be provided in the form of a program.
한편, 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽힐 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. Meanwhile, computer-readable media includes all types of recording devices that store data that can be read by a computer system. Examples of computer-readable media include HDD (Hard Disk Drive), SSD (Solid State Disk), SDD (Silicon Disk Drive), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. There is.
나아가, 컴퓨터가 읽을 수 있는 매체는, 저장소를 포함하며 전자기기가 통신을 통하여 접근할 수 있는 서버 또는 클라우드 저장소일 수 있다. 이 경우, 컴퓨터는 유선 또는 무선 통신을 통하여, 서버 또는 클라우드 저장소로부터 본 발명에 따른 프로그램을 다운로드 받을 수 있다.Furthermore, the computer-readable medium may be a server or cloud storage that includes storage and can be accessed by electronic devices through communication. In this case, the computer can download the program according to the present invention from a server or cloud storage through wired or wireless communication.
나아가, 본 발명에서는 위에서 설명한 컴퓨터는 프로세서, 즉 CPU(Central Processing Unit, 중앙처리장치)가 탑재된 전자기기로서, 그 종류에 대하여 특별한 한정을 두지 않는다.Furthermore, in the present invention, the computer described above is an electronic device equipped with a processor, that is, a CPU (Central Processing Unit), and there is no particular limitation on its type.
한편, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.Meanwhile, the above detailed description should not be construed as restrictive in all respects and should be considered illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.
Claims (16)
실내 공간에서 상기 로봇의 주행을 위한 시각적 측위를 수행하기 위하여, 상기 실내 공간에 대한 영상 정보를 획득하는 센싱부;
상기 전자 장치와 상기 로봇 간의 데이터 통신을 수행하는 인터페이스부; 및
서버와 통신하고, 상기 서버가 상기 영상 정보를 이용하여 상기 시각적 측위를 수행하도록, 상기 서버로 상기 영상 정보를 송신하는 통신부를 포함하고,
상기 서버로부터, 상기 시각적 측위의 결과에 기반하여 생성된 제어 신호를 수신하는 것에 응답하여, 상기 로봇이 상기 제어 신호에 기반하여 상기 실내 공간에서 주행하도록, 상기 서버로부터 수신된 상기 제어 신호를 상기 인터페이스부를 통해 상기 로봇으로 전달하는, 전자 장치.In the electronic device mounted on the robot,
A sensing unit that acquires image information about the indoor space in order to perform visual positioning for the robot to run in the indoor space;
an interface unit that performs data communication between the electronic device and the robot; and
Comprising a communication unit that communicates with a server and transmits the image information to the server so that the server performs the visual positioning using the image information,
In response to receiving, from the server, a control signal generated based on the result of the visual positioning, the control signal received from the server is transmitted to the interface so that the robot runs in the indoor space based on the control signal. An electronic device, which passes through the unit to the robot.
상기 센싱부는 상기 영상 정보를 획득하는 제1 카메라를 포함하고,
상기 제1 카메라는 상기 전자 장치 상에서 상기 로봇의 전면과 정렬되도록 배치되는, 전자 장치.According to paragraph 1,
The sensing unit includes a first camera that acquires the image information,
The first camera is arranged on the electronic device to be aligned with the front of the robot.
상기 로봇에는, 상기 전자 장치의 상기 제1 카메라와 이격되어 배치되는 로봇 센서가 포함되고,
상기 인터페이스부는 상기 로봇으로부터, 상기 로봇에 배치된 상기 로봇 센서를 통해 획득된 로봇 영상 정보를 수신하고,
상기 통신부는 상기 제1 카메라를 통해 획득된 상기 영상 정보 및 상기 로봇 영상 정보를 상기 서버로 전송하는, 전자 장치.According to paragraph 2,
The robot includes a robot sensor arranged to be spaced apart from the first camera of the electronic device,
The interface unit receives robot image information obtained from the robot through the robot sensor disposed on the robot,
The communication unit transmits the image information and the robot image information acquired through the first camera to the server.
상기 서버에서는, 상기 전자 장치로의 상기 제1 카메라를 통해 획득된 상기 영상 정보 및 상기 로봇 영상 정보를 이용하여, 상기 시각적 측위가 수행되고,
상기 통신부가 상기 서버로부터, 상기 영상 정보 및 상기 로봇 영상 정보를 이용한 상기 시각적 측위의 결과에 기반하여 생성된 상기 제어 신호를 수신하는 것에 응답하여, 상기 제어 신호를 상기 인터페이스부를 통해 상기 로봇으로 전달하는, 전자 장치.According to paragraph 3,
In the server, the visual positioning is performed using the image information and the robot image information acquired through the first camera on the electronic device,
In response to the communication unit receiving the control signal generated based on the image information and the result of the visual positioning using the robot image information from the server, the control signal is transmitted to the robot through the interface unit. , electronic devices.
기 설정된 확인 권한을 갖는 상기 서버가 상기 영상 정보를 확인할 수 있도록 상기 영상 정보에 대한 암호화를 수행하여, 암호화된 데이터를 생성하는 인증부를 더 포함하고,
상기 인증부는, 상기 암호화된 데이터에, 상기 전자 장치 및 상기 로봇 중 적어도 하나를 식별할 수 있는 인증 정보를 삽입하고,
상기 통신부를 통해 상기 서버에 상기 암호화된 데이터를 전송하는, 전자 장치.According to paragraph 1,
It further includes an authentication unit that performs encryption on the video information and generates encrypted data so that the server with preset confirmation authority can confirm the video information,
The authentication unit inserts authentication information capable of identifying at least one of the electronic device and the robot into the encrypted data,
An electronic device that transmits the encrypted data to the server through the communication unit.
상기 전자 장치는, 상기 서버로부터 수신한 상기 제어 신호 및 상기 전자 장치에서 생성한 주행 보조 정보에 근거하여 상기 로봇의 주행이 제어되도록, 상기 센싱부를 통해 획득한 센싱 정보를 이용하여, 상기 주행 보조 정보를 생성하고,
상기 센싱 정보는 상기 영상 정보, 상기 실내 공간에 대한 깊이 정보 및 상기 로봇의 관성 정보를 포함하는, 전자 장치.According to paragraph 1,
The electronic device generates the driving assistance information using the sensing information obtained through the sensing unit so that the driving of the robot is controlled based on the control signal received from the server and the driving assistance information generated by the electronic device. Create a ,
The sensing information includes the image information, depth information about the indoor space, and inertial information of the robot.
상기 센싱부는, 상기 깊이 정보를 획득하는 제2 카메라 및 상기 관성 정보를 획득하는 관성 센서 중 적어도 하나를 더 포함하고,
상기 전자 장치는, 상기 깊이 정보 및 상기 관성 정보에 기반하여, 상기 실내 공간에서의 상기 로봇의 주행을 보조하는 상기 주행 보조 정보를 생성하는 프로세서를 더 포함하고,
상기 서버로부터 수신한 상기 제어 신호 및 상기 프로세서로부터 수신한 상기 주행 보조 정보는, 상기 인터페이스부를 통해 상기 로봇으로 전달되는, 전자 장치.According to clause 6,
The sensing unit further includes at least one of a second camera for acquiring the depth information and an inertial sensor for acquiring the inertial information,
The electronic device further includes a processor that generates the driving assistance information to assist the robot in driving in the indoor space, based on the depth information and the inertial information,
The control signal received from the server and the driving assistance information received from the processor are transmitted to the robot through the interface unit.
실내 공간에서 로봇의 주행을 제어하기 위한 제어 신호를 생성하는 서버; 및
상기 로봇에 장착되어 상기 로봇과 관련된 정보를 획득하고, 상기 로봇을 통하여 상기 로봇과 관련된 정보를 상기 서버로 전달하는 전자 장치를 포함하고,
상기 전자 장치는:
상기 서버에서 상기 로봇의 주행 제어를 위한 시각적 측위(visual localization)가 수행되도록, 센싱부를 통해 상기 실내 공간에 대한 영상 정보를 획득하고,
상기 영상 정보가 상기 로봇을 통해 상기 서버로 전달되도록, 상기 로봇과 데이터 통신을 수행하도록 연결된 인터페이스부를 통해 상기 로봇으로 상기 영상 정보를 전달하고,
상기 서버는:
상기 로봇으로부터 상기 전자 장치에서 획득된 상기 영상 정보를 수신하는 것에 응답하여, 상기 영상 정보에 기반하여 상기 로봇에 대한 상기 시각적 측위를 수행하고,
상기 시각적 측위의 결과에 근거하여 상기 실내 공간에서 상기 로봇의 주행을 제어하기 위한 제어 신호를 생성하고,
상기 전자 장치에서 획득된 상기 영상 정보에 근거하여 생성된, 상기 로봇의 주행을 제어하기 위한 상기 제어 신호를 상기 로봇으로 전송하는, 로봇 제어 시스템.In the robot control system,
A server that generates control signals to control the robot's driving in an indoor space; and
It includes an electronic device mounted on the robot, acquiring information related to the robot, and transmitting the information related to the robot to the server through the robot,
The electronic device:
The server acquires image information about the indoor space through a sensing unit so that visual localization for driving control of the robot is performed,
Transmitting the image information to the robot through an interface unit connected to perform data communication with the robot so that the image information is transmitted to the server through the robot,
Said server:
In response to receiving the image information acquired in the electronic device from the robot, perform the visual localization for the robot based on the image information,
Generating a control signal to control the movement of the robot in the indoor space based on the results of the visual positioning,
A robot control system that transmits the control signal for controlling the running of the robot, which is generated based on the image information acquired from the electronic device, to the robot.
상기 전자 장치는 인증부를 통해 상기 서버가 상기 전자 장치 및 상기 로봇 중 적어도 하나를 식별할 수 있도록 상기 영상 정보에 인증 정보를 부가하여, 상기 로봇으로 전송하고,
상기 서버는:
상기 로봇으로부터 수신한, 상기 영상 정보에 부가된 상기 인증 정보로부터 상기 전자 장치 및 상기 로봇 중 적어도 하나를 식별하고,
상기 인증 정보 및 상기 영상 정보에 기반하여, 상기 실내 공간에서 상기 로봇의 주행을 제어하기 위한 상기 제어 신호를 생성하는, 로봇 제어 시스템.According to clause 8,
The electronic device adds authentication information to the image information so that the server can identify at least one of the electronic device and the robot through an authentication unit and transmits it to the robot,
Said server:
Identifying at least one of the electronic device and the robot from the authentication information received from the robot and added to the image information,
A robot control system that generates the control signal for controlling the driving of the robot in the indoor space based on the authentication information and the image information.
상기 인증부는 기 설정된 확인 권한을 갖는 상기 서버가 상기 영상 정보를 확인할 수 있도록, 상기 영상 정보에 대한 암호화를 수행하여 암호화된 데이터를 생성하고,
상기 서버는 상기 로봇을 통해 상기 암호화된 데이터를 수신하는 것에 응답하여, 상기 영상 정보에 대한 복호화를 수행함으로써, 상기 영상 정보를 확인하는, 로봇 제어 시스템.According to clause 9,
The authentication unit generates encrypted data by performing encryption on the image information so that the server with preset confirmation authority can verify the image information,
A robot control system, wherein the server confirms the image information by performing decryption on the image information in response to receiving the encrypted data through the robot.
상기 서버는:
상기 로봇으로부터, 상기 로봇에 배치된 로봇 센서를 통해 획득한 로봇 영상 정보를 수신하고,
상기 영상 정보 및 상기 로봇 영상 정보를 이용하여 상기 시각적 측위를 수행하고,
상기 시각적 측위의 결과에 근거하여 상기 실내 공간에서 상기 로봇의 주행을 제어하기 위한 상기 제어 신호를 생성하는, 로봇 제어 시스템.According to clause 8,
The server is:
Receiving robot image information obtained from the robot through a robot sensor disposed on the robot,
Performing the visual positioning using the image information and the robot image information,
A robot control system that generates the control signal for controlling the movement of the robot in the indoor space based on the results of the visual positioning.
상기 센싱부는, 상기 영상 정보를 획득하는 제1 카메라, 상기 실내 공간에 대한 깊이 정보를 획득하는 제2 카메라 및 상기 로봇의 관성 정보를 획득하는 관성 센서를 더 포함하고,
상기 전자 장치는, 상기 깊이 정보 및 상기 관성 정보에 기반하여 상기 실내 공간에서의 상기 로봇의 주행을 보조하는 주행 보조 정보를 획득하는 프로세서를 더 포함하고.
상기 전자 장치는, 상기 프로세서로부터 수신한 상기 주행 보조 정보를 상기 인터페이스부를 통해 상기 로봇으로 전달하고,
상기 서버는, 상기 영상 정보에 기반하여 생성된 상기 제어 신호를 상기 로봇으로 전달하는, 로봇 제어 시스템.According to clause 8,
The sensing unit further includes a first camera that acquires the image information, a second camera that acquires depth information about the indoor space, and an inertial sensor that acquires inertial information of the robot,
The electronic device further includes a processor that obtains driving assistance information that assists the robot in driving in the indoor space based on the depth information and the inertial information.
The electronic device transmits the driving assistance information received from the processor to the robot through the interface unit,
The server is a robot control system that transmits the control signal generated based on the image information to the robot.
로봇에 장착된 전자 장치의 센싱부를 통해, 실내 공간에서 상기 로봇의 주행을 위한 시각적 측위(visual localization)를 수행하기 위하여, 상기 실내 공간에 대한 영상 정보를 획득하는 단계;
서버가 상기 시각적 측위를 수행하도록, 상기 영상 정보를 상기 서버로 전송하는 단계; 및
상기 서버로부터, 상기 시각적 측위의 결과에 기반하여 생성된 제어 신호를 수신하는 것에 응답하여, 상기 로봇이 상기 제어 신호에 기반하여 상기 실내 공간에서 주행하도록 상기 제어 신호를 상기 로봇으로 전달하는 단계를 포함하는, 로봇 제어 방법.In the robot control method,
Obtaining image information about the indoor space through a sensing unit of an electronic device mounted on the robot to perform visual localization for driving the robot in the indoor space;
transmitting the image information to the server so that the server performs the visual localization; and
In response to receiving, from the server, a control signal generated based on the result of the visual localization, transmitting the control signal to the robot to cause the robot to travel in the indoor space based on the control signal. How to control a robot.
상기 센싱부를 통해 상기 실내 공간에 대한 깊이 정보 및 상기 로봇의 관성 정보를 획득하는 단계;
상기 깊이 정보 및 상기 관성 정보에 기반하여, 상기 실내 공간에서의 상기 로봇의 주행을 보조하는 주행 보조 정보를 획득하는 단계; 및
상기 주행 보조 정보 및 상기 서버로부터 수신한 상기 제어 신호를, 상기 로봇으로 전달하는 단계를 포함하는, 로봇 제어 방법. According to clause 13,
Obtaining depth information about the indoor space and inertia information of the robot through the sensing unit;
Based on the depth information and the inertia information, obtaining driving assistance information to assist the robot in driving in the indoor space; and
A robot control method comprising transmitting the driving assistance information and the control signal received from the server to the robot .
상기 로봇으로부터 상기 로봇에 배치되는 로봇 센서가 획득한 로봇 영상 정보를 수신하는 단계;
상기 영상 정보 및 상기 로봇 영상 정보를 함께 상기 서버로 전송하는 단계; 및
상기 서버로부터, 상기 서버가 상기 영상 정보 및 상기 로봇 영상 정보를 이용한 상기 시각적 측위의 결과에 기반하여 생성된 상기 제어 신호를 수신하는 것에 응답하여, 상기 제어 신호를 상기 로봇으로 전달하는 단계를 포함하는, 로봇 제어 방법.According to clause 13,
Receiving robot image information acquired by a robot sensor disposed on the robot from the robot;
Transmitting the image information and the robot image information together to the server; and
In response to the server receiving, from the server, the control signal generated based on the image information and a result of the visual positioning using the robot image information, transmitting the control signal to the robot. , Robot control method.
상기 프로그램은,
로봇에 장착된 전자 장치의 센싱부를 통해, 실내 공간에서 상기 로봇의 주행을 위한 시각적 측위(visual localization)를 수행하기 위하여, 상기 실내 공간에 대한 영상 정보를 획득하는 단계,
서버가 상기 시각적 측위를 수행하도록, 상기 영상 정보를 상기 서버로 전송하는 단계, 및
상기 서버로부터, 상기 시각적 측위의 결과에 기반하여 생성된 제어 신호를 수신하는 것에 응답하여, 상기 로봇이 상기 제어 신호에 기반하여 상기 실내 공간에서 주행하도록, 상기 제어 신호를 상기 로봇으로 전달하는 단계를 수행하는 명령어들을 포함하는 것을 특징으로 하는 컴퓨터로 판독될 수 있는 기록매체에 저장된 프로그램.A program that is executed by one or more processes in an electronic device and stored on a computer-readable recording medium,
The above program is,
Obtaining image information about the indoor space through a sensing unit of an electronic device mounted on the robot to perform visual localization for driving the robot in the indoor space,
transmitting the image information to the server so that the server performs the visual localization, and
In response to receiving, from the server, a control signal generated based on a result of the visual localization, transmitting the control signal to the robot so that the robot runs in the indoor space based on the control signal. A program stored on a computer-readable recording medium that includes instructions to be executed.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220099112A KR20240020865A (en) | 2022-08-09 | 2022-08-09 | Electronic device, systems and methods for robot control |
PCT/KR2023/010557 WO2024034911A1 (en) | 2022-08-09 | 2023-07-21 | Electronic device, system, and method for controlling robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220099112A KR20240020865A (en) | 2022-08-09 | 2022-08-09 | Electronic device, systems and methods for robot control |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20240020865A true KR20240020865A (en) | 2024-02-16 |
Family
ID=89851995
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220099112A KR20240020865A (en) | 2022-08-09 | 2022-08-09 | Electronic device, systems and methods for robot control |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR20240020865A (en) |
WO (1) | WO2024034911A1 (en) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4588359B2 (en) * | 2004-05-07 | 2010-12-01 | 富士通株式会社 | Network robot function providing system and function providing method |
KR20090103078A (en) * | 2008-03-27 | 2009-10-01 | 인제대학교 산학협력단 | Mobile-phone combination robot and method for remote controlling |
US11565415B2 (en) * | 2019-07-02 | 2023-01-31 | Lg Electronics Inc. | Method of tracking user position using crowd robot, tag device, and robot implementing thereof |
KR102457588B1 (en) * | 2019-12-13 | 2022-10-24 | 주식회사 케이티 | Autonomous robot, location estimation server of autonomous robot and location estimation or autonomous robot using the same |
KR102462634B1 (en) * | 2020-08-27 | 2022-11-03 | 네이버랩스 주식회사 | Building that monitors robots driving in the building, control method and system for robot |
-
2022
- 2022-08-09 KR KR1020220099112A patent/KR20240020865A/en unknown
-
2023
- 2023-07-21 WO PCT/KR2023/010557 patent/WO2024034911A1/en unknown
Also Published As
Publication number | Publication date |
---|---|
WO2024034911A1 (en) | 2024-02-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11858628B2 (en) | Image space motion planning of an autonomous vehicle | |
US11822353B2 (en) | Simple multi-sensor calibration | |
CN110446159B (en) | System and method for accurate positioning and autonomous navigation of indoor unmanned aerial vehicle | |
EP3012659A2 (en) | Surveying areas using a radar system and an unmanned aerial vehicle | |
EP3158417B1 (en) | Sensor fusion using inertial and image sensors | |
US20190224852A1 (en) | Assistant robot and operation method thereof | |
CN104854428A (en) | Sensor fusion | |
EP3674657A1 (en) | Construction and update of elevation maps | |
US11110600B2 (en) | Airport robot and operation method thereof | |
US20150266577A1 (en) | Modular drone and methods for use | |
EP3734394A1 (en) | Sensor fusion using inertial and image sensors | |
KR20200037548A (en) | Vehicle charging robot | |
US20240126294A1 (en) | System and method for perceptive navigation of automated vehicles | |
EP2927771A1 (en) | Flying drone trajectory synchronization | |
Urieva et al. | Collision detection and avoidance using optical flow for multicopter UAVs | |
US20170090477A1 (en) | Indoor positioning system training | |
Zhou et al. | Autonomous wireless sensor deployment with unmanned aerial vehicles for structural health monitoring applications | |
Chirtel et al. | Designing a spatially aware, autonomous quadcopter using the android control sensor system | |
KR102372563B1 (en) | Remote control method and system for robot | |
KR20240020865A (en) | Electronic device, systems and methods for robot control | |
Park et al. | Realization of distributed formation flying using a group of autonomous quadcopters and application to visual performance show | |
Pearce et al. | Designing a spatially aware, automated quadcopter using an Android control system | |
JP7476882B2 (en) | Mobile object, control method thereof, and program | |
US20220415193A1 (en) | Image processing device, image processing method, and program | |
Morris et al. | CityFlyer: Progress toward autonomous MAV navigation and 3D mapping |