KR102190743B1 - AUGMENTED REALITY SERVICE PROVIDING APPARATUS INTERACTING WITH ROBOT and METHOD OF THEREOF - Google Patents

AUGMENTED REALITY SERVICE PROVIDING APPARATUS INTERACTING WITH ROBOT and METHOD OF THEREOF Download PDF

Info

Publication number
KR102190743B1
KR102190743B1 KR1020180095823A KR20180095823A KR102190743B1 KR 102190743 B1 KR102190743 B1 KR 102190743B1 KR 1020180095823 A KR1020180095823 A KR 1020180095823A KR 20180095823 A KR20180095823 A KR 20180095823A KR 102190743 B1 KR102190743 B1 KR 102190743B1
Authority
KR
South Korea
Prior art keywords
robot
augmented reality
information
image
virtual object
Prior art date
Application number
KR1020180095823A
Other languages
Korean (ko)
Other versions
KR20200020295A (en
Inventor
송용남
김관수
이재권
Original Assignee
주식회사 트레셋
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 트레셋 filed Critical 주식회사 트레셋
Priority to KR1020180095823A priority Critical patent/KR102190743B1/en
Publication of KR20200020295A publication Critical patent/KR20200020295A/en
Application granted granted Critical
Publication of KR102190743B1 publication Critical patent/KR102190743B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 개시는 로봇과 인터랙션할 수 있는 증강현실 서비스를 제공하는 것에 관한 것으로, 로봇과 모바일 장치에서 각각 획득한 위치 및 방향 정보를 기초로 편리하게 증강현실을 구현하고, 로봇을 조종할 수 있는 증강현실 콘텐츠를 사용자에게 제공하기 위한 것이다. 본 개시의 일 실시 예에 따른 로봇과 인터랙션하는 증강현실 서비스 제공 장치는 로봇과 통신하는 통신부, 영상을 촬영하는 카메라, 영상을 표시하는 디스플레이부 및 카메라에서 촬영된 영상으로부터 로봇의 위치정보를 추출하고, 통신부를 통해 로봇이 획득한 방향정보가 수신되면, 추출된 위치정보와 수신된 방향정보를 기초로 로봇의 위치 및 자세에 관한 공간정보를 생성하고, 생성된 공간정보를 이용하여 로봇을 추적하고 가상 오브젝트가 표시될 위치를 결정하며 로봇이 이동할 수 없는 제한구역을 설정하고, 촬영된 영상에 가상 오브젝트를 합성한 증강현실 영상을 표시하도록 디스플레이부를 제어하는 프로세서를 포함한다.The present disclosure relates to providing an augmented reality service capable of interacting with a robot, and an augmented reality that can conveniently implement augmented reality based on location and direction information obtained from a robot and a mobile device, and control the robot. To provide content to users. An augmented reality service providing apparatus that interacts with a robot according to an embodiment of the present disclosure extracts the location information of the robot from a communication unit communicating with the robot, a camera taking an image, a display unit displaying an image, and an image captured by the camera. , When the direction information acquired by the robot is received through the communication unit, spatial information about the position and posture of the robot is generated based on the extracted position information and the received direction information, and the robot is tracked using the generated spatial information. And a processor for controlling the display unit to determine a position where the virtual object is to be displayed, to set a restricted area in which the robot cannot move, and to display an augmented reality image obtained by combining the virtual object with the captured image.

Description

로봇과 인터랙션하는 증강현실 서비스 제공 장치 및 방법{AUGMENTED REALITY SERVICE PROVIDING APPARATUS INTERACTING WITH ROBOT and METHOD OF THEREOF}Device and method for providing augmented reality service that interacts with a robot {AUGMENTED REALITY SERVICE PROVIDING APPARATUS INTERACTING WITH ROBOT and METHOD OF THEREOF}

본 개시는 로봇과 인터랙션하는 증강현실 서비스 제공 장치 및 방법에 관한 것으로, 더욱 상세하게는 로봇과 모바일 장치에서 각각 획득된 정보를 융합하여 증강현실을 구현하고, 구현된 증강현실 화면 내에서 로봇을 제어할 수 있는 증강현실 서비스 제공 장치 및 방법에 관한 것이다.The present disclosure relates to an apparatus and method for providing an augmented reality service that interacts with a robot, and more particularly, to realize augmented reality by fusion of information obtained from a robot and a mobile device, and to control the robot within the implemented augmented reality screen. It relates to an augmented reality service providing apparatus and method that can be.

증강현실(Augmented Reality, AR)은 현실에 가상의 영상정보를 합성하여 제공하는 기술이다. 증강현실과 함께 자주 언급되는 가상현실(Virtual Reality, VR)과의 차별화되는 증강현실만의 특징으로는 현실의 이미지와 가상의 이미지가 결합된 것이라는 점, 실시간으로 인터랙션이 가능하다는 점, 3차원의 공간 안에 놓여있다는 점을 들 수 있다. 증강현실 기술을 이용하면 사용자가 실제로 보는 현실에 사용자에게 도움이 되는 가상의 객체나 정보를 증강시킬 수 있기 때문에, 엔터테인먼트, 교육, 원격의료, 방송, 건축, 설계, 제조공정 등 다양한 산업분야에서 증강현실을 이용한 서비스에 대한 수요가 증가하고 있다.Augmented Reality (AR) is a technology that synthesizes and provides virtual image information in reality. The unique features of augmented reality that are differentiated from virtual reality (VR), which are often mentioned along with augmented reality, are the combination of a real image and a virtual image, the ability to interact in real time, and the three-dimensional It can be said that it lies in the space. Augmented reality technology can be used to augment virtual objects or information useful to users in the reality they see, so it is augmented in various industries such as entertainment, education, telemedicine, broadcasting, architecture, design, and manufacturing processes. The demand for services using reality is increasing.

증강현실에서는 정확한 위치에 가상의 이미지를 배치해야 하기 때문에, 실제 물체 등의 위치정보 획득이 중요하다. 위치정보를 획득하는 방식을 기준으로 증강현실 기술은 크게 마커 방식과 마커리스 방식으로 분류할 수 있다. 마커 방식은 기준 좌표 역할을 하는 마커를 미리 실제 물체에 부착하고, 인식된 마커를 기준점으로 위치 정보를 획득하는 방식이다. 마커 방식은 미리 마커를 제작하고 부착하여야 한다는 점에서 번거롭고, 마커를 부착하지 않고는 증강현실을 구현할 수 없다는 문제가 있다. 그 밖에 모션캡쳐 장비, 라이다(lidar) 장비 등을 사용하여 마커 없이 증강현실을 구현할 수도 있으나, 고가의 장비를 활용하는 것이어서 일반적으로 사용되기에 무리가 있다. 또한, 비컨(beacon)을 활용한 마커리스 방식은 통신 속도가 느려 고속의 RTS(Real Time System)에서는 사용이 어렵다는 문제가 있다.In augmented reality, since it is necessary to place a virtual image at an exact location, it is important to obtain location information of an actual object. Based on the method of acquiring location information, augmented reality technology can be largely classified into a marker method and a markerless method. The marker method is a method of attaching a marker serving as a reference coordinate to an actual object in advance and obtaining location information using the recognized marker as a reference point. The marker method is cumbersome in that a marker must be prepared and attached in advance, and there is a problem that augmented reality cannot be realized without attaching a marker. In addition, it is possible to implement augmented reality without markers using motion capture equipment, lidar equipment, etc., but it is unreasonable to be generally used because it uses expensive equipment. In addition, the markerless method using a beacon has a problem that it is difficult to use in a high-speed Real Time System (RTS) due to a slow communication speed.

본 개시는 상술한 문제점을 해결하기 위한 것으로, 증강현실 영상을 제공하는 장치와 영상 속에 실재하는 로봇에서 각각 획득한 정보를 융합하여 마커리스 방식의 증강현실을 구현하며, 증강현실 화면 상에서 로봇 조종 콘텐츠를 제공할 수 있는 로봇과 인터랙션하는 증강현실 서비스 제공 장치 및 방법을 제공함을 목적으로 한다.The present disclosure is to solve the above-described problem, by fusion of information obtained from each of the devices that provide an augmented reality image and a robot that exists in the image to implement a markerless augmented reality, and robot control content on the augmented reality screen It is an object of the present invention to provide an apparatus and method for providing an augmented reality service that interacts with a robot capable of providing.

상기 목적을 달성하기 위한 본 개시의 일 실시 예에 따른 로봇과 인터랙션하는 증강현실 서비스 제공 장치는 상기 로봇과 통신하는 통신부, 영상을 촬영하는 카메라, 영상을 표시하는 디스플레이부 및 상기 카메라에서 촬영된 영상으로부터 상기 로봇의 위치정보를 추출하고, 상기 통신부를 통해 상기 로봇이 획득한 방향정보가 수신되면, 상기 추출된 위치정보와 상기 수신된 방향정보를 기초로 상기 로봇의 위치 및 자세에 관한 공간정보를 생성하고, 상기 생성된 공간정보를 이용하여 상기 로봇을 추적하고 가상 오브젝트가 표시될 위치를 결정하며 상기 로봇이 이동할 수 없는 제한구역을 설정하고, 상기 촬영된 영상에 상기 가상 오브젝트를 합성한 증강현실 영상을 표시하도록 상기 디스플레이부를 제어하는 프로세서를 포함할 수 있다.An augmented reality service providing apparatus for interacting with a robot according to an embodiment of the present disclosure for achieving the above object includes a communication unit for communicating with the robot, a camera for photographing an image, a display unit for displaying an image, and an image captured by the camera. When the location information of the robot is extracted from and the direction information obtained by the robot is received through the communication unit, spatial information regarding the location and posture of the robot is provided based on the extracted location information and the received direction information. An augmented reality that tracks the robot using the generated spatial information, determines a location where a virtual object is to be displayed, sets a restricted area where the robot cannot move, and synthesizes the virtual object with the captured image It may include a processor that controls the display unit to display an image.

그리고 상기 추출된 위치정보는 상기 로봇의 2차원 좌표 정보를 나타내는 스칼라 값이고, 상기 수신된 방향정보는 상기 로봇의 요(yaw) 방향 정보를 나타내는 벡터 값이며, 상기 로봇에 부착된 관성측정부를 통해 획득된 것일 수 있다.And the extracted position information is a scalar value indicating two-dimensional coordinate information of the robot, the received direction information is a vector value indicating the yaw direction information of the robot, through the inertial measurement unit attached to the robot It may be acquired.

또한, 상기 로봇의 동작을 제어하는 사용자 명령을 입력받는 사용자 인터페이스부를 더 포함하고, 상기 프로세서는 상기 사용자 인터페이스부를 통해 입력된 사용자 명령과 대응되는 제어신호를 상기 로봇에 전송하도록 상기 통신부를 제어할 수 있다.In addition, further comprising a user interface unit for receiving a user command for controlling the operation of the robot, the processor may control the communication unit to transmit a control signal corresponding to the user command input through the user interface to the robot. have.

그리고 상기 프로세서는 상기 로봇을 상기 설정된 제한구역 안으로 이동하는 사용자 명령이 입력되면, 상기 설정된 제한구역의 경계까지 이동한 후 이동을 중단하도록 하는 제어신호를 상기 로봇에 전송하도록 상기 통신부를 제어할 수 있다.In addition, the processor may control the communication unit to transmit a control signal for stopping the movement after moving to the boundary of the set restricted area when a user command for moving the robot into the set restricted area is input. .

또한, 알림 신호를 피드백하는 출력부를 더 포함하고, 상기 프로세서는 상기 가상 오브젝트가 각각 기설정된 알고리즘에 따라 이동하도록 제어하고, 상기 로봇의 위치가 상기 가상 오브젝트의 위치와 중첩되면 알림 신호를 제공할 수 있다.Further, the processor further includes an output unit for feeding back a notification signal, and the processor controls each of the virtual objects to move according to a preset algorithm, and provides a notification signal when the position of the robot overlaps the position of the virtual object. have.

그리고 상기 프로세서는 상기 통신부를 통해 상기 로봇에 부착된 센서를 통해 획득된 지형정보가 수신되면, 상기 수신된 지형정보를 기초로 상기 제한구역을 갱신할 수 있다. In addition, when the terrain information obtained through the sensor attached to the robot is received through the communication unit, the processor may update the restricted area based on the received terrain information.

한편, 상기 목적을 달성하기 위한 본 개시의 일 실시 예에 따른 로봇과 인터랙션하는 증강현실 서비스 제공 방법은 로봇이 포함된 영상을 촬영하고 상기 촬영된 영상으로부터 상기 로봇의 위치정보를 추출하는 단계, 상기 로봇이 획득한 방향정보를 수신하는 단계, 상기 추출된 위치정보와 상기 획득된 방향정보를 기초로 상기 로봇의 위치 및 자세에 관한 공간정보를 생성하는 단계, 상기 생성된 공간정보를 이용하여 상기 로봇을 추적하고, 가상 오브젝트가 표시될 위치를 결정하며, 상기 로봇이 이동할 수 없는 제한구역을 설정하는 단계 및 상기 촬영된 영상에 가상 오브젝트를 합성한 증강현실 영상을 표시하는 단계를 포함할 수 있다.Meanwhile, in an augmented reality service providing method for interacting with a robot according to an embodiment of the present disclosure for achieving the above object, the step of photographing an image including a robot and extracting the location information of the robot from the photographed image, the Receiving the direction information obtained by the robot, generating spatial information about the position and posture of the robot based on the extracted position information and the obtained direction information, and the robot using the generated spatial information Tracking, determining a location where the virtual object is to be displayed, setting a restricted area in which the robot cannot move, and displaying an augmented reality image obtained by synthesizing the virtual object with the captured image.

그리고 상기 추출된 위치정보는 상기 로봇의 2차원 좌표 정보를 나타내는 스칼라 값이고, 상기 수신된 방향정보는 상기 로봇의 요(yaw) 방향 정보를 나타내는 벡터 값이며, 상기 로봇에 부착된 관성측정부를 통해 획득된 것일 수 있다. And the extracted position information is a scalar value indicating two-dimensional coordinate information of the robot, the received direction information is a vector value indicating the yaw direction information of the robot, through the inertial measurement unit attached to the robot It may be acquired.

또한, 상기 로봇의 동작을 제어하는 사용자 명령이 입력되면, 상기 입력된 사용자 명령과 대응되는 제어신호를 상기 로봇에 전송하는 단계를 더 포함할 수 있다. In addition, when a user command for controlling the operation of the robot is input, transmitting a control signal corresponding to the input user command to the robot.

그리고 상기 제어신호를 상기 로봇에 전송하는 단계는, 상기 로봇을 상기 설정된 제한구역 안으로 이동하는 사용자 명령이 입력되면, 상기 설정된 제한구역의 경계까지 이동한 후 이동을 중단하도록 하는 제어신호를 상기 로봇에 전송할 수 있다. And the step of transmitting the control signal to the robot, when a user command for moving the robot into the set restricted area is input, a control signal for stopping the movement after moving to the border of the set restricted area is sent to the robot. Can be transmitted.

그리고 상기 가상 오브젝트가 기설정된 알고리즘에 따라 이동하도록 제어하는 단계 및 상기 로봇의 위치가 상기 가상 오브젝트의 위치와 중첩되면 알림 신호를 제공하는 단계를 더 포함할 수 있다. The method may further include controlling the virtual object to move according to a preset algorithm, and providing a notification signal when the position of the robot overlaps the position of the virtual object.

또한 상기 제한구역을 설정하는 단계는, 상기 로봇에 부착된 센서를 통해 획득된 지형정보가 수신되면, 상기 수신된 지형정보를 기초로 상기 제한구역을 갱신할 수 있다. In addition, in the step of setting the restricted area, when the terrain information acquired through a sensor attached to the robot is received, the restricted area may be updated based on the received terrain information.

이상과 같은 본 개시의 다양한 실시 예에 따르면, 별도의 장비 없이도 증강현실 화면 속에서 사용자가 제어할 수 있는 로봇이 감지한 정보를 통해 마커리스 증강현실을 손쉽게 구현할 수 있고, 단순히 가상 오브젝트만 조작 가능한 증강현실 서비스가 아닌 실제 물체인 로봇을 증강현실 화면에서 조종할 수 있는 서비스를 제공할 수 있다.According to various embodiments of the present disclosure as described above, it is possible to easily implement markerless augmented reality through information detected by a robot that can be controlled by a user in an augmented reality screen without separate equipment, and simply manipulate virtual objects. It is possible to provide a service that can control a robot that is a real object, not an augmented reality service, on an augmented reality screen.

도 1은 본 개시의 일 실시 예에 따른 증강현실 서비스 제공 시스템에 대한 개념도,
도 2는 본 개시의 일 실시 예에 따른 증강현실 서비스 제공 장치의 구성을 설명하기 위한 개략적인 블록도,
도 3은 본 개시의 일 실시 예에 따른 증강현실 서비스 제공 장치의 구성을 설명하기 위한 상세한 블록도,
도 4는 본 개시의 일 실시 예에 따른 증강현실 서비스 제공 장치와 인터랙션하는 로봇의 구성을 설명하기 위한 블록도,
도 5는 본 개시의 일 실시 예에 따른 증강현실 서비스 제공 방법에 대한 시스템도,
도 6 및 7은 본 개시의 다양한 실시 예에 따른 증강현실 구현 화면을 도시한 도면,
도 8은 본 개시의 일 실시 예에 따른 로봇과 인터랙션하는 증강현실 서비스 제공 방법을 설명하기 위한 흐름도이다.
1 is a conceptual diagram of an augmented reality service providing system according to an embodiment of the present disclosure,
2 is a schematic block diagram for explaining the configuration of an augmented reality service providing apparatus according to an embodiment of the present disclosure;
3 is a detailed block diagram for explaining the configuration of an augmented reality service providing apparatus according to an embodiment of the present disclosure;
4 is a block diagram illustrating a configuration of a robot that interacts with an augmented reality service providing apparatus according to an embodiment of the present disclosure;
5 is a system diagram for a method of providing an augmented reality service according to an embodiment of the present disclosure;
6 and 7 are diagrams illustrating an augmented reality implementation screen according to various embodiments of the present disclosure;
8 is a flowchart illustrating a method of providing an augmented reality service that interacts with a robot according to an embodiment of the present disclosure.

이하에서는 본 개시의 바람직한 실시 예가 첨부된 도면을 참조하여 상세히 설명한다. 본 개시를 설명함에 있어서, 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 개시의 요지를 불필요하게 흐릴 수 있다고 판단된 경우 그 상세한 설명은 생략한다. 그리고 후술되는 용어들은 본 개시에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자 또는 관례에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.Hereinafter, exemplary embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. In describing the present disclosure, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the subject matter of the present disclosure, a detailed description thereof will be omitted. In addition, terms to be described later are terms defined in consideration of functions in the present disclosure and may vary according to a user, operator, or custom. Therefore, the definition should be made based on the contents throughout this specification.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소를 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되지는 않는다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 개시의 권리범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 항목들의 조합 또는 복수의 관련된 항목들 중의 어느 하나의 항목을 포함한다.Terms including ordinal numbers, such as first and second, may be used to describe various elements, but the elements are not limited by terms. The terms are only used for the purpose of distinguishing one component from another component. For example, without departing from the scope of the present disclosure, a first element may be referred to as a second element, and similarly, a second element may be referred to as a first element. The term and/or includes a combination of a plurality of related items or any one of a plurality of related items.

본 명세서에서 사용한 용어는 실시 예를 설명하기 위해 사용된 것으로, 본 개시를 제한 및/또는 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서 포함한다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 숫자, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지칭하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present specification are used to describe embodiments, and are not intended to limit and/or limit the present disclosure. Singular expressions include plural expressions unless the context clearly indicates otherwise. In the present specification, terms such as include or have are intended to refer to the presence of features, numbers, actions, components, parts, or a combination thereof described in the specification, but one or more other features, numbers, actions, and components It is to be understood that the possibility of the presence or addition of, parts or combinations thereof is not preliminarily excluded.

실시 예에 있어서 '모듈' 혹은 '부'는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어 또는 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 '모듈' 혹은 복수의 '부'는 특정한 하드웨어로 구현될 필요가 있는 '모듈' 혹은 '부'를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서로 구현될 수 있다.In an embodiment, the'module' or'unit' performs at least one function or operation, and may be implemented as hardware or software, or a combination of hardware or software. In addition, a plurality of'modules' or a plurality of'units' may be integrated into at least one module and implemented as at least one processor except for the'module' or'unit' that needs to be implemented with specific hardware.

이하에서는 첨부된 도면을 이용하여 본 개시에 대하여 구체적으로 설명한다.Hereinafter, the present disclosure will be described in detail with reference to the accompanying drawings.

도 1은 본 개시의 일 실시 예에 따른 증강현실 서비스 제공 시스템(1000)에 대한 개념도이다. 도 1을 참조하면, 증강현실 서비스 제공 시스템(1000)은 증강현실 서비스 제공 장치(100) 및 로봇(200)으로 구성될 수 있다. 증강현실 서비스 제공 장치(100)는 일반 영상을 촬영하고, 증강현실 영상을 생성하며, 로봇(200)과 통신하여 방향 정보, 센서 정보 등을 수신하고 제어신호를 송신할 수 있는 모든 전자 장치로 구현 가능하다. 예를 들어, 증강현실 서비스 제공 장치(100)는 스마트폰, 타블렛, PDA, 스마트 글라스 등으로 구현될 수 있다. 로봇(200)은 증강현실 서비스 제공 장치(100)에서 수신된 제어신호에 따라 다양한 태스크를 수행할 수 있다. 또한 로봇(200)은 다양한 센서를 장착하여 방향 정보, 장애물 정보, 지형 정보 등을 획득할 수 있다.1 is a conceptual diagram of an augmented reality service providing system 1000 according to an embodiment of the present disclosure. Referring to FIG. 1, an augmented reality service providing system 1000 may include an augmented reality service providing apparatus 100 and a robot 200. The augmented reality service providing device 100 photographs a general image, generates an augmented reality image, and communicates with the robot 200 to receive direction information, sensor information, etc., and is implemented as any electronic device capable of transmitting a control signal. It is possible. For example, the augmented reality service providing device 100 may be implemented as a smart phone, tablet, PDA, smart glass, or the like. The robot 200 may perform various tasks according to a control signal received from the augmented reality service providing apparatus 100. In addition, the robot 200 may acquire direction information, obstacle information, terrain information, and the like by mounting various sensors.

증강현실 서비스 제공 시스템(1000)은 별도의 마커 없이도 증강현실 서비스 제공 장치(100)의 카메라(110)와 로봇(200)의 관성측정부(210)에서 획득 가능한 정보를 융합하여 로봇(200)의 위치를 추적할 수 있다. 2차원 평면 상에서 로봇(200)의 움직임은 3가지 정보(예를 들어, 직교좌표계에서의 x 좌표 정보, y 좌표 정보, 요(yaw) 방향 정보)를 통해 결정된다. 3가지 정보 중 로봇(200)의 위치에 대한 2차원 좌표 값은 스칼라 값이며, 로봇(200)의 자세 또는 방향에 대한 값은 벡터 값이다. 이 3가지 정보로 정해지는 2차원 평면 상에서의 공간정보를 ‘물체의 방향정보를 포함하는 정확한 위치’라고 부르기도 한다. 본 개시의 일 실시 예에 따르면 증강현실 서비스 제공 장치(100)와 로봇(200)은 2차원 평면에서의 로봇(200)의 위치 추적에 필요한 3가지 정보로 구성된 공간정보를 나누어 획득한다. 구체적으로, 증강현실 서비스 제공 장치(100)의 카메라(110)에서 촬영된 영상을 기초로 로봇(200)의 2차원 좌표 정보(x좌표 및 y좌표)를 추출할 수 있다. 또한 로봇(200)에 부착된 관성측정부(210)에서 요(yaw) 방향에 대한 정보를 획득할 수 있다. 로봇(200)에서 획득된 방향 정보는 증강현실 서비스 제공 장치(100)로 전송된다. 로봇(200)의 위치를 추적하는데 필요한 공간정보의 3가지 정보 요소를 모두 갖게 된 증강현실 서비스 제공 장치(100)는 가상 오브젝트의 생성 위치를 결정하고, 로봇(200)이 포함된 영상에 가상 오브젝트를 부가하여 증강현실 영상을 생성할 수 있다. 증강현실 서비스 제공 장치(100)는 사용자가 증강현실 영상에 표시된 로봇(200)을 제어할 수 있는 사용자 인터페이스를 제공할 수 있다. The augmented reality service providing system 1000 fuses information that can be obtained from the camera 110 of the augmented reality service providing device 100 and the inertial measurement unit 210 of the robot 200 without a separate marker. You can track your location. The movement of the robot 200 on the 2D plane is determined through three pieces of information (eg, x coordinate information, y coordinate information, and yaw direction information in a Cartesian coordinate system). Among the three pieces of information, a two-dimensional coordinate value for the position of the robot 200 is a scalar value, and a value for the attitude or direction of the robot 200 is a vector value. Spatial information on a two-dimensional plane determined by these three pieces of information is sometimes referred to as'accurate location including object direction information'. According to an embodiment of the present disclosure, the augmented reality service providing apparatus 100 and the robot 200 divide and obtain spatial information composed of three pieces of information necessary for location tracking of the robot 200 on a two-dimensional plane. Specifically, 2D coordinate information (x coordinates and y coordinates) of the robot 200 may be extracted based on the image captured by the camera 110 of the augmented reality service providing apparatus 100. In addition, information on the yaw direction may be obtained from the inertial measurement unit 210 attached to the robot 200. The direction information obtained from the robot 200 is transmitted to the augmented reality service providing apparatus 100. The augmented reality service providing apparatus 100 having all three information elements of spatial information necessary to track the position of the robot 200 determines the generation position of the virtual object, and the virtual object is displayed in the image including the robot 200. Can be added to generate an augmented reality image. The augmented reality service providing apparatus 100 may provide a user interface through which a user can control the robot 200 displayed on an augmented reality image.

본 개시의 일 실시 예에 따른 증강현실 서비스 제공 시스템(1000)은 고가의 모션캡쳐 장비나 별도의 마커 또는 비콘 없이도 로봇(200)과의 실시간 통신을 통해 증강현실 영상을 생성할 수 있는 효과가 있다. 또한, 사용자는 실제 오브젝트와 가상 오브젝트가 혼재된 증강현실 영상 속에서 실제 물체인 로봇(200)을 조정하는 콘텐츠를 통해 새로운 사용자 경험을 얻을 수 있다.The augmented reality service providing system 1000 according to an embodiment of the present disclosure has an effect of generating an augmented reality image through real-time communication with the robot 200 without expensive motion capture equipment or a separate marker or beacon. . In addition, a user can obtain a new user experience through contents that control the robot 200, which is a real object, in an augmented reality image in which a real object and a virtual object are mixed.

한편, 도 1의 실시 예를 설명함에 있어, 증강현실 서비스 제공 시스템(1000)은 하나의 증강현실 서비스 제공 장치(100)와 하나의 로봇(200)을 포함하는 것으로 설명하였으나, 다수의 증강현실 서비스 제공 장치(100)가 하나의 로봇(200)과 인터랙션할 수도 있으며, 하나의 증강현실 서비스 제공 장치(100)로 다수의 로봇(200)과 인터랙션할 수도 있다.Meanwhile, in describing the embodiment of FIG. 1, the augmented reality service providing system 1000 has been described as including one augmented reality service providing device 100 and one robot 200, but a plurality of augmented reality services The providing device 100 may interact with one robot 200, or may interact with a plurality of robots 200 with one augmented reality service providing device 100.

도 2는 본 개시의 일 실시 예에 따른 증강현실 서비스 제공 장치(100)의 구성을 설명하기 위한 개략적인 블록도이다. 도 2를 참조하면, 증강현실 서비스 제공 장치(100)는 카메라(110), 통신부(120), 디스플레이부(130) 및 프로세서(140)를 포함할 수 있다.2 is a schematic block diagram illustrating the configuration of an augmented reality service providing apparatus 100 according to an embodiment of the present disclosure. Referring to FIG. 2, the augmented reality service providing apparatus 100 may include a camera 110, a communication unit 120, a display unit 130, and a processor 140.

카메라(110)는 영상을 촬영할 수 있다. 예를 들어, 카메라(110)는 로봇(200)이 포함된 영상을 촬영할 수 있다. 카메라(110)는 렌즈로 구현될 수도 있고, CCD(Charge Coupled Device), CMOS(Complementary Metal Oxide Semiconductor) 등의 이미지 센서로 구현될 수도 있다. 또한 카메라(110)는 복수의 촬영 소자로 구현될 수도 있다. 예를 들어, 제1 촬영 소자는 초점거리가 짧아 화각이 넓고 밝은 영상을 촬영할 수 있는 광각 렌즈이고, 제2 촬영 소자는 초점거리가 길어 화각이 좁고 어두운 영상을 촬영할 수 있는 망원 렌즈일 수 있다. 다른 예로, 복수의 촬영 소자는 서로 다른 셔터 속도(노출 시간)을 갖는 촬영 소자일 수 있다.The camera 110 may take an image. For example, the camera 110 may capture an image including the robot 200. The camera 110 may be implemented as a lens or as an image sensor such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS). In addition, the camera 110 may be implemented with a plurality of photographing elements. For example, the first photographing element may be a wide-angle lens capable of photographing a bright image with a wide angle of view due to a short focal length, and the second photographing element may be a telephoto lens capable of photographing a dark image having a narrow angle of view due to a long focal length. As another example, the plurality of photographing elements may be photographing elements having different shutter speeds (exposure times).

통신부(120)는 무선 네트워크를 이용하여 로봇(200)과 같은 외부 장치와 통신할 수 있다. 예를 들어, 통신부(120)는 로봇(200)으로부터 로봇(200)의 방향 정보를 수신할 수 있고, 로봇(200)에 로봇(200)의 움직임을 제어하는 신호를 송신할 수 있다. 통신부(120)는 무선통신 방식으로 블루투스, Zigbee 통신, WiFi, 적외선(InfraRed, IR) 통신, NFC(Near Field Communication) 등 다양한 방식을 이용할 수 있다.The communication unit 120 may communicate with an external device such as the robot 200 using a wireless network. For example, the communication unit 120 may receive direction information of the robot 200 from the robot 200 and transmit a signal for controlling the movement of the robot 200 to the robot 200. The communication unit 120 may use various methods such as Bluetooth, Zigbee communication, WiFi, infrared (InfraRed, IR) communication, and Near Field Communication (NFC) as a wireless communication method.

디스플레이부(130)는 카메라(110)가 촬영한 영상, 프로세서(140)가 생성한 증강현실 영상 등을 표시할 수 있다. 그리고 디스플레이부(130)는 증강현실 서비스 제공 장치(100)가 제공하는 각종 기능을 선택받기 위한 사용자 인터페이스 창을 표시할 수도 있다. 예를 들어, 디스플레이부(130)는 로봇(200)의 동작을 제어하기 위한 사용자 인터페이스 창을 표시할 수 있다. 이러한 디스플레이부(130)는 액정 표시 장치(LCD), 유기 전기 발광 다이오드(OLED), 플라즈마 표시 패널(PDP) 등과 같은 다양한 형태로 구현될 수 있다.The display unit 130 may display an image captured by the camera 110 and an augmented reality image generated by the processor 140. In addition, the display unit 130 may display a user interface window for selecting various functions provided by the augmented reality service providing apparatus 100. For example, the display unit 130 may display a user interface window for controlling the operation of the robot 200. The display unit 130 may be implemented in various forms such as a liquid crystal display (LCD), an organic electroluminescent diode (OLED), and a plasma display panel (PDP).

디스플레이부(130)는 터치패드와 함께 상호 레이어 구조를 이루는 터치 스크린의 형태로 구현될 수 있으며, 터치 스크린은 터치 입력 위치, 면적, 터치 입력의 압력까지도 검출되도록 구성될 수 있다. 이러한 경우에, 디스플레이부(130)는 후술할 사용자 인터페이스부(150)의 기능을 아울러 수행할 수 있다.The display unit 130 may be implemented in the form of a touch screen forming a layered structure together with a touch pad, and the touch screen may be configured to detect a touch input location, area, and even a pressure of the touch input. In this case, the display unit 130 may also perform the function of the user interface unit 150 to be described later.

프로세서(140)는 오브젝트의 초기 위치를 인식하고, 오브젝트의 움직임을 추적하며, 증강현실 영상을 렌더링할 수 있다. 또한, 프로세서(140)는 로봇(200)의 움직임을 제어할 수 있기 때문에, 증강현실 영상 속에서 로봇(200)이 가상 오브젝트들과 인터랙션하는 콘텐츠를 제공할 수 있다. The processor 140 may recognize the initial position of the object, track the movement of the object, and render an augmented reality image. In addition, since the processor 140 can control the movement of the robot 200, it is possible to provide content for the robot 200 to interact with virtual objects in an augmented reality image.

본 개시의 일 실시 예에 따르면, 프로세서(140)는 로봇(200)의 위치정보와 방향정보를 이용하여 2차원 평면에서 로봇(200)의 위치 및 자세를 결정할 수 있다. 프로세서(140)는 카메라(110)에서 촬영된 영상으로부터 로봇(200)의 위치정보(예를 들어, 직교좌표계에서의 x 및 y 좌표 정보와 같은 2차원 좌표 정보)를 추출할 수 있다. 예를 들어, 프로세서(140)는 카메라(110)에서 촬영된 영상을 전처리한 후, 색추출 알고리즘을 이용하여 로봇(200)을 인식할 수 있다. 또한, 프로세서(140)는 Hough Circle이나 Edge Detection 알고리즘을 이용하여 로봇(200)의 형태를 인식할 수 있다. 이러한 영상처리 방법을 통해 프로세서(140)는 로봇(200)의 2차원 위치 좌표를 획득할 수 있다. 로봇(200)의 방향정보는 로봇(200)에 장착된 관성측정부(210)에서 획득된다. 예를 들어, 로봇(200)의 방향정보는 직교좌표계에서 z방향 회전정보인 요(yaw) 방향에 대한 정보일 수 있다. 통신부(120)를 통해 로봇(200)의 방향정보가 수신되면, 프로세서(140)는 획득한 2차원 위치 정보와 수신된 방향정보를 융합하여 로봇(200)의 위치 및 자세에 관한 공간정보를 생성할 수 있다. 그리고 프로세서(140)는 생성된 공간정보를 이용하여 로봇(200)을 추적할 수 있다.According to an embodiment of the present disclosure, the processor 140 may determine a position and a posture of the robot 200 in a two-dimensional plane using position information and direction information of the robot 200. The processor 140 may extract location information of the robot 200 (eg, two-dimensional coordinate information such as x and y coordinate information in a Cartesian coordinate system) from an image captured by the camera 110. For example, the processor 140 may pre-process the image captured by the camera 110 and then recognize the robot 200 using a color extraction algorithm. In addition, the processor 140 may recognize the shape of the robot 200 using a Hough Circle or Edge Detection algorithm. Through this image processing method, the processor 140 may obtain the two-dimensional position coordinates of the robot 200. The direction information of the robot 200 is obtained from the inertial measurement unit 210 mounted on the robot 200. For example, the direction information of the robot 200 may be information on a yaw direction, which is rotation information in the z direction in an orthogonal coordinate system. When the direction information of the robot 200 is received through the communication unit 120, the processor 140 creates spatial information about the position and posture of the robot 200 by fusing the obtained two-dimensional position information and the received direction information. can do. Further, the processor 140 may track the robot 200 using the generated spatial information.

본 개시의 일 실시 예에 따르면, 프로세서(140)는 추적된 로봇(200)의 위치를 기초로 증강현실 영상을 렌더링할 수 있다. 프로세서(140)는 가상 오브젝트가 표시될 위치를 결정할 수 있다. 프로세서(140)는 촬영된 영상에 가상 오브젝트를 합성하여 증강현실 영상을 생성하고, 생성된 증강현실 영상이 표시되도록 디스플레이부(130)를 제어할 수 있다. 또한, 프로세서(140)는 증강현실 영상의 일 영역을 로봇(200)이 이동할 수 있는 영역으로 설정할 수 있다. 바꾸어 말하면 프로세서(140)는 로봇(200)이 이동할 수 없는 제한구역을 설정할 수 있다. 로봇(200)이 이동할 수 있는 영역과 이동할 수 없는 영역을 구분하여 설정해 두는 것은 실제 오브젝트인 로봇(200)과 가상 오브젝트가 인터랙션하는 증강현실 서비스나 콘텐츠를 제공하는 면에서 이점이 있다. 보다 구체적인 프로세서(140)의 동작에 대해서는 이하에서 다시 설명하기로 한다.According to an embodiment of the present disclosure, the processor 140 may render an augmented reality image based on the tracked position of the robot 200. The processor 140 may determine a location in which the virtual object is to be displayed. The processor 140 may generate an augmented reality image by synthesizing a virtual object with the captured image, and control the display 130 to display the generated augmented reality image. In addition, the processor 140 may set an area of the augmented reality image as an area in which the robot 200 can move. In other words, the processor 140 may set a restricted area in which the robot 200 cannot move. Separating and setting the area in which the robot 200 can move and the area in which it cannot move is advantageous in providing an augmented reality service or content in which the robot 200, which is a real object, and a virtual object interact. A more detailed operation of the processor 140 will be described later.

도 3은 본 개시의 일 실시 예에 따른 증강현실 서비스 제공 장치(100)의 구성을 설명하기 위한 상세한 블록도이다. 도 3을 참조하면, 증강현실 서비스 제공 장치(100)는 카메라(110), 통신부(120), 디스플레이부(130), 프로세서(140), 사용자 인터페이스부(150), 출력부(160) 및 메모리(170)를 포함할 수 있다. 도 3의 실시 예에 도시된 구성요소 이외에도 증강현실 서비스 제공 장치(100)는 전원부(미도시), 센서부(미도시), 음성 입력부(미도시) 등 다양한 구성을 포함할 수 있다. 또한, 증강현실 서비스 제공 장치(100)는 반드시 도 3에 도시된 구성을 모두 포함하여 구현되는 것으로 한정되지 않음은 물론이다. 카메라(110), 통신부(120), 디스플레이부(130)에 대한 설명은 도 2를 설명한 것과 중복되기 때문에 생략하기로 한다.3 is a detailed block diagram illustrating a configuration of an augmented reality service providing apparatus 100 according to an embodiment of the present disclosure. 3, the augmented reality service providing apparatus 100 includes a camera 110, a communication unit 120, a display unit 130, a processor 140, a user interface unit 150, an output unit 160, and a memory. It may include 170. In addition to the components shown in the embodiment of FIG. 3, the augmented reality service providing apparatus 100 may include various configurations such as a power supply unit (not shown), a sensor unit (not shown), and a voice input unit (not shown). In addition, it goes without saying that the augmented reality service providing apparatus 100 is not necessarily limited to being implemented including all of the configurations shown in FIG. 3. The descriptions of the camera 110, the communication unit 120, and the display unit 130 are omitted because they overlap with those described in FIG. 2.

사용자 인터페이스부(150)는 사용자로부터 제어 명령 등을 입력받을 수 있다. 예를 들어, 사용자 인터페이스부(150)는 로봇(200)의 동작을 제어하기 위한 사용자 명령을 입력받을 수 있고, 프로세서(140)는 입력된 사용자 명령과 대응되는 제어신호를 로봇(200)에 전송하도록 통신부(120)를 제어할 수 있다. 사용자 인터페이스부(150)는 터치 스크린의 형태로 구현될 수 있으며, 이러한 경우 디스플레이부(130)가 사용자 인터페이스부(150)의 기능을 아울러 수행할 수 있다. 사용자 인터페이스부(150)는 사용자의 음성을 인식하는 음성입력장치의 형식으로 구현될 수도 있다.The user interface unit 150 may receive a control command or the like from a user. For example, the user interface unit 150 may receive a user command for controlling the operation of the robot 200, and the processor 140 transmits a control signal corresponding to the input user command to the robot 200 The communication unit 120 can be controlled so as to be. The user interface unit 150 may be implemented in the form of a touch screen, and in this case, the display unit 130 may also perform the function of the user interface unit 150. The user interface unit 150 may be implemented in the form of a voice input device that recognizes a user's voice.

출력부(160)는 사용자에게 알림 신호, 경고 신호, 안내 신호 등을 피드백할 수 있다. 예를 들어, 출력부(160)는 알림 메시지 등을 표시하는 형태로 사용자에게 피드백할 수 있다. 이러한 경우에는 디스플레이부(130)를 통해 메시지가 표시되기 때문에 출력부(160)의 기능을 디스플레이부(130)가 겸한다고 할 수 있다. 다른 예로, 출력부(160)는 소리, 진동, 점등 등으로 알림 신호를 사용자에게 피드백 할 수 있다.The output unit 160 may feed back a notification signal, a warning signal, and a guide signal to the user. For example, the output unit 160 may provide feedback to the user in the form of displaying a notification message or the like. In this case, since a message is displayed through the display unit 130, the display unit 130 may also serve as the function of the output unit 160. As another example, the output unit 160 may feed back a notification signal to the user through sound, vibration, lighting, or the like.

메모리(170)는 증강현실 서비스 제공 장치(100)를 구동하기 위한 다양한 모듈, 소프트웨어, 데이터를 저장할 수 있다. 예를 들어, 메모리(170)에는 증강현실 렌더링을 위한 소프트웨어, 가상 오브젝트의 3D 모델링 데이터를 포함한 증강현실 콘텐츠 데이터, 로봇(200)을 제어하기 위한 제어명령, 로봇(200)과의 통신 프로토콜 등이 저장될 수 있다.The memory 170 may store various modules, software, and data for driving the augmented reality service providing apparatus 100. For example, the memory 170 includes software for augmented reality rendering, augmented reality content data including 3D modeling data of a virtual object, a control command for controlling the robot 200, a communication protocol with the robot 200, etc. Can be saved.

메모리(170)는 증강현실 서비스 제공 장치(100)를 동작시키기 위해 필요한 각종 프로그램 등이 저장되는 저장매체로서, 플래쉬 메모리, HDD(Hard Disk Drive), SSD(Solid State Drive) 등의 형태로 구현될 수 있다. 예를 들어, 메모리(170)는 증강현실 서비스 제공 장치(100)의 동작 수행을 위한 프로그램, 어플리케이션을 저장하기 위한 ROM, 증강현실 서비스 제공 장치(100)의 동작 수행에 따른 데이터를 일시적으로 저장하기 위한 RAM을 구비할 수 있다. 또한, 메모리(170)는 각종 참조 데이터를 저장하기 위한 EEPROM(Electrically Erasable and Programmable ROM) 등을 더 구비할 수 있다.The memory 170 is a storage medium for storing various programs required to operate the augmented reality service providing device 100, and may be implemented in the form of a flash memory, a hard disk drive (HDD), a solid state drive (SSD), and the like. I can. For example, the memory 170 temporarily stores a program for performing an operation of the augmented reality service providing device 100, a ROM for storing an application, and data according to the operation of the augmented reality service providing device 100 It can have a RAM for. In addition, the memory 170 may further include an Electrically Erasable and Programmable ROM (EEPROM) for storing various reference data.

프로세서(140)는 증강현실 서비스 제공 장치(100)의 상술한 구성들을 제어할 수 있다. 예를 들어, 프로세서(140)는 로봇(200)에 제어신호를 송신하고, 로봇(200)으로부터 방향 정보, 센서 정보 등을 수신하도록 통신부(120)를 제어할 수 있다.The processor 140 may control the above-described configurations of the augmented reality service providing apparatus 100. For example, the processor 140 may control the communication unit 120 to transmit a control signal to the robot 200 and receive direction information, sensor information, and the like from the robot 200.

프로세서(140)는 단일 프로세서(예를 들어, 하나의 CPU나 하나의 AP)로 구현되어 로봇(200)과 같은 오브젝트 추적 동작, 증강현실 영상 생성 동작, 로봇(200) 제어 동작 등을 수행할 수도 있고, 복수의 프로세서 및 특정 기능을 수행하는 IP로 구현될 수도 있다. 도 3의 실시 예에서는 프로세서(140)가 증강현실 모듈(141), 영상처리 모듈(143) 및 로봇 제어 모듈(145)을 포함하는 것으로 도시하였다. 증강현실 모듈(141)은 카메라(110)에서 촬영한 실제 영상속에 가상 오브젝트와 같은 증강현실 콘텐츠를 표시할 가상의 공간을 설정할 수 있다. 증강현실 모듈(141)은 증강현실 영상을 만드는데 필요한 데이터를 외부에서 수신하여 사용할 수 있다. 예를 들어, 증강현실 모듈(141)은 외부에서 생성된 가상 오브젝트의 3D 모델링 데이터, 영상처리 모듈(143)에서 연산된 공간정보 데이터를 수신하여 증강현실 영상을 만드는데 이용할 수 있다. 영상처리 모듈(143)은 카메라(110)에서 촬영한 영상을 처리하여, 로봇(200)의 위치를 인식하고 로봇(200)이 위치한 2차원 평면을 인식할 수 있다. 예를 들어, 영상처리 모듈(143)은 색추출 알고리즘 등을 사용하여 로봇을 인식하고, Hough Circle 알고리즘, Edge Detection 알고리즘 등을 사용하여 로봇의 형태를 인식할 수 있다. 로봇 제어 모듈(145)은 기설정된 로봇(200)의 움직임에 대한 동작 알고리즘을 기초로 로봇(200)에 제어신호를 전송하도록 통신부(120)를 제어할 수 있다. 예를 들어, 사용자 인터페이스부(150)를 통해 사용자 명령이 입력되면, 로봇 제어 모듈(145)은 입력된 사용자 명령에 대응되는 제어 신호를 동작 알고리즘을 기초로 스트링 형태의 데이터로 생성할 수 있다. The processor 140 may be implemented as a single processor (eg, one CPU or one AP) to perform an object tracking operation such as the robot 200, an augmented reality image generation operation, and a robot 200 control operation. Alternatively, it may be implemented with a plurality of processors and IPs that perform specific functions. In the embodiment of FIG. 3, it is illustrated that the processor 140 includes an augmented reality module 141, an image processing module 143, and a robot control module 145. The augmented reality module 141 may set a virtual space in which an augmented reality content such as a virtual object is displayed in an actual image captured by the camera 110. The augmented reality module 141 may receive and use data necessary to create an augmented reality image from the outside. For example, the augmented reality module 141 may receive 3D modeling data of a virtual object generated externally and spatial information data calculated by the image processing module 143 and use it to create an augmented reality image. The image processing module 143 may process an image captured by the camera 110 to recognize the position of the robot 200 and recognize a two-dimensional plane on which the robot 200 is located. For example, the image processing module 143 may recognize the robot using a color extraction algorithm or the like, and recognize the shape of the robot using a Hough Circle algorithm, an Edge Detection algorithm, or the like. The robot control module 145 may control the communication unit 120 to transmit a control signal to the robot 200 based on a predetermined motion algorithm for the movement of the robot 200. For example, when a user command is input through the user interface unit 150, the robot control module 145 may generate a control signal corresponding to the input user command as string data based on an operation algorithm.

도 4는 본 개시의 일 실시 예에 따른 증강현실 서비스 제공 장치(100)와 인터랙션하는 로봇(200)의 구성을 설명하기 위한 블록도이다. 도 4를 참조하면, 로봇(200)은 관성측정부(210), 센서부(220), 통신부(230), 구동부(240), 전원부(250) 및 프로세서(260)를 포함할 수 있다. 도 4의 실시 예에 도시된 구성요소 이외에도 로봇(200)는 메모리(미도시) 등 다양한 구성을 포함할 수 있다. 또한, 로봇(200)는 반드시 도 4에 도시된 구성을 모두 포함하여 구현되는 것으로 한정되지 않음은 물론이다.4 is a block diagram illustrating a configuration of a robot 200 that interacts with the augmented reality service providing apparatus 100 according to an embodiment of the present disclosure. Referring to FIG. 4, the robot 200 may include an inertial measurement unit 210, a sensor unit 220, a communication unit 230, a driving unit 240, a power supply unit 250, and a processor 260. In addition to the components shown in the embodiment of FIG. 4, the robot 200 may include various components such as a memory (not shown). In addition, it goes without saying that the robot 200 is not necessarily limited to being implemented including all of the configurations shown in FIG. 4.

관성측정부(210)는 로봇(200)의 방향 정보를 검출할 수 있다. 관성측정부(210)는 기 설정된 시간 간격으로 로봇(200)의 방향 정보를 검출할 수 있다. 관성측정부(210)는 가속도 센서, 각속도 센서, 지자기 센서를 포함하는 IMU(Inertial Measurement Unit)로 구현될 수 있다. The inertial measurement unit 210 may detect direction information of the robot 200. The inertial measurement unit 210 may detect direction information of the robot 200 at preset time intervals. The inertial measurement unit 210 may be implemented as an inertial measurement unit (IMU) including an acceleration sensor, an angular velocity sensor, and a geomagnetic sensor.

가속도 센서는 단위 시간에 대한 속도의 변화량을 감지한다. 가속도 센서는 3축으로 구현될 수 있다. 3축 가속도 센서로 구현된 경우에는 가속도 센서는 서로 다른 방향으로 배치되어 서로 직교하는 X, Y, Z축 가속도 센서를 구비한다. 가속도센서는 X, Y, Z축 가속도 센서 각각의 출력값을 디지털 값으로 변환하여 전처리부로 제공한다. 이때 전처리부는 쵸핑회로, 증폭회로, 필터, 및 A/D 컨버터(A/D converter) 등을 포함할 수 있다. 이에 따라, 3축 가속도 센서로부터 출력된 전기적 신호를 쵸핑, 증폭, 필터링한 후, 디지털 전압값으로 변환한다. 각속도 센서는 단위 시간 동안 로봇(200)의 기 설정된 방향의 변화량을 감지하여 각속도를 감지하는 구성이다. 각속도 센서는 3축을 갖는 자이로스코프가 사용될 수 있다. 이러한 관성 센서의 6축에 더하여 지자기 센서를 이용할 수 있다. 지자기 센서는 자기장의 흐름을 검출하여 방위각을 탐지할 수 있는 센서이다. 지자기 센서는 로봇(200)의 방위좌표를 검출하고, 방위좌표를 토대로 로봇(200)이 놓여진 방향을 검출할 수 있다. 지자기 센서는 플럭스게이트 등을 이용하여 지자기에 의해 유도되는 전압값을 측정함으로써 지자기를 검출할 수 있다. 지자기 센서는 2축 또는 3축으로 구현될 수 있다.The acceleration sensor detects the amount of change in velocity per unit time. The acceleration sensor can be implemented in three axes. When implemented as a three-axis acceleration sensor, the acceleration sensors include X, Y, and Z-axis acceleration sensors disposed in different directions and perpendicular to each other. The acceleration sensor converts the output values of each of the X, Y, and Z axis acceleration sensors into digital values and provides them to the preprocessor. In this case, the preprocessor may include a chopping circuit, an amplifying circuit, a filter, and an A/D converter. Accordingly, the electrical signal output from the 3-axis acceleration sensor is chopped, amplified, filtered, and then converted into a digital voltage value. The angular velocity sensor is a component that senses the angular velocity by detecting the amount of change in a preset direction of the robot 200 during a unit time. As for the angular velocity sensor, a gyroscope having three axes can be used. In addition to the six axes of these inertial sensors, a geomagnetic sensor can be used. The geomagnetic sensor is a sensor that can detect the azimuth angle by detecting the flow of a magnetic field. The geomagnetic sensor may detect an azimuth coordinate of the robot 200 and detect a direction in which the robot 200 is placed based on the azimuth coordinate. The geomagnetic sensor can detect geomagnetism by measuring a voltage value induced by the geomagnetism using a flux gate or the like. The geomagnetic sensor can be implemented in two or three axes.

센서부(220)는 로봇(200) 주변의 지형, 환경이나 로봇(200) 자체의 상태를 감지할 수 있다. 센서부(220)는 장애물 센서(221), 이미지 센서(223) 등 다양한 센서를 포함할 수 있다. 본 명세서에서 센서부(220)는 관성측정부(210)에 포함된 센서들을 제외한 개념으로 정의될 수 있다.The sensor unit 220 may detect a topography or environment around the robot 200 or a state of the robot 200 itself. The sensor unit 220 may include various sensors such as an obstacle sensor 221 and an image sensor 223. In the present specification, the sensor unit 220 may be defined as a concept excluding sensors included in the inertial measurement unit 210.

장애물 센서(221)는 로봇(200)의 이동을 방해하는 장애물을 감지할 수 있다. 예를 들어, 장애물 센서(221)는 로봇(200)이 통과할 수 없는 벽, 틈새, 기둥, 문턱, 둔덕 등을 식별할 수 있는 비접촉식 감지 센서 및 접촉식 충돌/범퍼 센서를 포함할 수 있다. The obstacle sensor 221 may detect an obstacle that obstructs the movement of the robot 200. For example, the obstacle sensor 221 may include a non-contact detection sensor and a contact collision/bumper sensor capable of identifying walls, gaps, columns, thresholds, mounds, etc., through which the robot 200 cannot pass.

이미지 센서(223)는 로봇(200) 주변을 촬영하여 환경 정보를 생성할 수 있다. 또한, 이미지 센서(223)는 천장을 촬영하는 방법으로 로봇(200)의 위치를 파악할 수도 있다. 그리고 이미지 센서(223)는 로봇(100)의 진행 방향에 위치한 물체들을 촬영할 수 있다. 예를 들어, 이미지 센서(223)는 CCD(Charge Coupled Device) 소자 또는 CMOS(Complementary Metal Oxide Semiconductor) 소자로 구현될 수 있다.The image sensor 223 may generate environmental information by photographing the surroundings of the robot 200. Also, the image sensor 223 may determine the location of the robot 200 by photographing the ceiling. In addition, the image sensor 223 may photograph objects located in the moving direction of the robot 100. For example, the image sensor 223 may be implemented as a Charge Coupled Device (CCD) device or a Complementary Metal Oxide Semiconductor (CMOS) device.

통신부(230)는 외부 장치와 데이터, 제어신호 등을 송수신할 수 있다. 예를 들어, 통신부(230)는 증강현실 서비스 제공 장치(100)로 로봇(200)의 방향 정보를 송신할 수 있다. 또한, 통신부(230)는 증강현실 서비스 제공 장치(100)로부터 제어신호를 수신할 수 있다. 통신부(230)는 무선통신 방식으로 블루투스, Zigbee 통신, WiFi, 적외선(InfraRed, IR) 통신, NFC(Near Field Communication) 등 다양한 방식을 이용할 수 있다.The communication unit 230 may transmit and receive data, control signals, and the like with an external device. For example, the communication unit 230 may transmit direction information of the robot 200 to the augmented reality service providing apparatus 100. In addition, the communication unit 230 may receive a control signal from the augmented reality service providing apparatus 100. The communication unit 230 may use various methods such as Bluetooth, Zigbee communication, WiFi, infrared (InfraRed, IR) communication, and Near Field Communication (NFC) as a wireless communication method.

구동부(240)는 로봇(200)을 구동시킬 수 있다. 예를 들어, 구동부(240)는 프로세서(260)의 제어에 의해 태스크를 수행할 위치로 로봇(200)을 이동시킬 수 있다. 이러한 경우에, 구동부(240)는 바닥면과 접촉하는 적어도 하나의 바퀴, 바퀴에 동력을 제공하는 모터 및 모터를 제어할 드라이버를 포함할 수 있다. 다른 예로, 구동부(240)는 태스크를 수행하기 위한 동작을 할 수 있다. 물체 이동 태스크의 경우에 구동부(240)는 물체를 집어드는 동작 등을 수행하기 위한 모터를 포함할 수 있다.The driving unit 240 may drive the robot 200. For example, the driving unit 240 may move the robot 200 to a position to perform the task under the control of the processor 260. In this case, the driving unit 240 may include at least one wheel in contact with the floor, a motor providing power to the wheel, and a driver to control the motor. As another example, the driving unit 240 may perform an operation to perform a task. In the case of an object movement task, the driving unit 240 may include a motor for performing an operation of picking up an object.

전원부(250)는 로봇(200)의 구동에 필요한 전원을 공급한다. 예를 들어, 전원부(250)는 충방전이 가능한 배터리로 구현될 수 있다. 프로세서(260)는 로봇(200)의 잔여 전원이 기설정된 레벨 이하로 떨어지거나, 태스크를 완료한 경우 충전 스테이션으로 이동하도록 구동부(240)를 제어할 수 있다. 전원부(250)는 접촉식 및 비접촉식 충전 방식 중 어느 것으로든 충전될 수 있다.The power supply unit 250 supplies power required for driving the robot 200. For example, the power supply unit 250 may be implemented as a battery capable of charging and discharging. The processor 260 may control the driving unit 240 to move to the charging station when the remaining power of the robot 200 falls below a preset level or when a task is completed. The power supply unit 250 may be charged in any of a contact type and a non-contact type charging method.

메모리(미도시)는 로봇(200)의 방향 정보, 로봇(200) 주변의 지도 정보, 센서부(220)에서 감지된 각종 정보를 저장할 수 있다. 메모리(미도시)에는 로봇(200)을 동작시키기 위해 필요한 각종 프로그램이 저장될 수 있다.The memory (not shown) may store direction information of the robot 200, map information around the robot 200, and various types of information sensed by the sensor unit 220. Various programs required to operate the robot 200 may be stored in the memory (not shown).

프로세서(260)는 로봇(200)의 상술한 구성들을 제어할 수 있다. 통신부(230)를 통해 증강현실 서비스 제공 장치(100)로부터 제어 신호가 수신되면, 프로세서(260)는 수신된 제어 신호에 따라 로봇(200)이 동작을 수행하도록 구동부(240)를 제어할 수 있다. 프로세서(260)는 기설정된 주기마다 로봇(200)의 방향 정보, 지형 정보 등을 획득하도록 관성측정부(210), 센서부(220)를 제어할 수 있다. 프로세서(260)는 주기적으로 획득된 방향 정보, 지형 정보 등을 증강현실 서비스 제공 장치(100)로 송신하도록 통신부(230)를 제어할 수 있다. 이를 통해 증강현실 서비스 제공 장치(100)는 로봇(200)의 이동 방향, 로봇(200) 주변의 지형, 로봇(200)의 상태 등을 갱신할 수 있다.The processor 260 may control the above-described components of the robot 200. When a control signal is received from the augmented reality service providing apparatus 100 through the communication unit 230, the processor 260 may control the driving unit 240 so that the robot 200 performs an operation according to the received control signal. . The processor 260 may control the inertial measurement unit 210 and the sensor unit 220 to acquire direction information, terrain information, and the like of the robot 200 at each preset period. The processor 260 may control the communication unit 230 to transmit periodically acquired direction information, terrain information, and the like to the augmented reality service providing apparatus 100. Through this, the augmented reality service providing apparatus 100 may update the moving direction of the robot 200, the terrain around the robot 200, and the state of the robot 200.

도 5는 본 개시의 일 실시 예에 따른 증강현실 서비스 제공 방법에 대한 시스템도이다. 본 개시의 일 실시 예에 따른 증강현실 서비스 제공 시스템(1000)은 증강현실 서비스 제공 장치(100)와 로봇(200)으로 구성될 수 있다. 5 is a system diagram for a method of providing an augmented reality service according to an embodiment of the present disclosure. The augmented reality service providing system 1000 according to an embodiment of the present disclosure may include an augmented reality service providing device 100 and a robot 200.

도 5를 참조하면, 증강현실 서비스 제공 장치(100)는 로봇(200)이 포함된 영상을 촬영할 수 있다(S505). 로봇(200) 또는 로봇(200)의 주변에 가상 오브젝트를 렌더링하고 합성하여 증강현실 영상을 생성할 것이기 때문이다. 증강현실 서비스 제공 장치(100)는 촬영된 영상을 분석하여 로봇(200)의 위치 정보를 추출할 수 있다(S510). 증강현실 서비스 제공 장치(100)는 촬영된 영상을 전처리하고, 색이나 형태를 기초로 영상에서 로봇(200)을 인식할 수 있다. 예를 들어, 증강현실 서비스 제공 장치(100)는 RGB 채널로 획득된 영상을 HSV 스케일로 변환하고 색추출 알고리즘을 이용하여 촬영된 영상에서 로봇(200)을 인식할 수 있다. 그리고 증강현실 서비스 제공 장치(100)는 로봇(200)의 형태를 인식할 수 있는 알고리즘을 이용하여 로봇(200)의 2차원 평면에서의 위치 좌표를 추출할 수 있다. 예를 들어, 증강현실 서비스 제공 장치(100)는 직교좌표계를 사용할 경우에 두 스칼라 값인 x 좌표 및 y 좌표 값을 획득할 수 있다.Referring to FIG. 5, the augmented reality service providing apparatus 100 may capture an image including the robot 200 (S505). This is because an augmented reality image will be generated by rendering and synthesizing a virtual object around the robot 200 or the robot 200. The augmented reality service providing apparatus 100 may extract the location information of the robot 200 by analyzing the captured image (S510). The augmented reality service providing apparatus 100 may pre-process the captured image and recognize the robot 200 from the image based on a color or shape. For example, the augmented reality service providing apparatus 100 may convert an image acquired through an RGB channel into an HSV scale and recognize the robot 200 from a captured image using a color extraction algorithm. In addition, the augmented reality service providing apparatus 100 may extract the position coordinates of the robot 200 in a two-dimensional plane using an algorithm capable of recognizing the shape of the robot 200. For example, when using a Cartesian coordinate system, the augmented reality service providing apparatus 100 may acquire two scalar values, an x coordinate and a y coordinate value.

본 개시의 일 실시 예에 따른 증강현실 서비스 제공 시스템(1000)은 증강현실 콘텐츠의 일부로서 조종 가능한 로봇(200)을 증강현실 구현을 위한 정보를 획득하는 수단으로도 사용한다. 이를 통해 별도의 장비 없이도 마커리스 증강현실을 손쉽게 구현할 수 있다. 로봇(200)은 로봇(200)에 부착된 관성측정부(210)를 통해 벡터 값인 자신의 방향 정보를 획득할 수 있다(S515). 각속도 센서, 지자기 센서 등을 통해 감지된 로봇(200)의 방향 정보는 증강현실 서비스 제공 장치(100)로 송신된다(S520). 로봇(200)의 2차원 평면에서의 위치 및 자세를 결정하기 위한 3가지 정보 중 2가지는 증강현실 서비스 제공 장치(100)에서 획득된 정보이며, 나머지 1가지는 로봇(200)에서 획득된 정보이다.The augmented reality service providing system 1000 according to an embodiment of the present disclosure also uses the robot 200 that can be manipulated as part of the augmented reality content as a means for acquiring information for implementing augmented reality. Through this, markerless augmented reality can be easily implemented without additional equipment. The robot 200 may acquire its own direction information, which is a vector value, through the inertial measurement unit 210 attached to the robot 200 (S515). The direction information of the robot 200 sensed through an angular velocity sensor, a geomagnetic sensor, etc. is transmitted to the augmented reality service providing apparatus 100 (S520). Two of the three pieces of information for determining the position and posture of the robot 200 in the two-dimensional plane are information obtained by the augmented reality service providing apparatus 100, and the other one is information obtained by the robot 200.

로봇(200)으로부터 방향 정보를 수신한 증강현실 서비스 제공 장치(100)는 자신이 획득한 2차원 좌표 정보와 수신한 방향 정보를 융합하여 로봇의 위치와 자세에 대한 공간정보를 생성할 수 있다(S525). 그리고 증강현실 서비스 제공 장치(100)는 생성된 공간정보를 이용하여 로봇(200)을 추적할 수 있다(S530). 증강현실 서비스 제공 장치(100)는 제공할 증강현실 콘텐츠의 내용에 따라 배치할 가상 오브젝트를 결정할 수 있다. 그리고 영상에 포함된 로봇(200)의 위치가 결정되었기 때문에, 증강현실 서비스 제공 장치(100)는 로봇(200)의 위치나 자세를 기초로 가상 오브젝트가 표시될 위치를 결정할 수 있다(S535). 또한, 증강현실 서비스 제공 장치(100)는 화면상에서 로봇(200)이 이동할 수 없는 제한구역을 설정할 수 있다(S540). 도 5의 실시 예에서는 S535 단계와 S540 단계는 순차적으로 수행되는 것으로 도시하였으나, S535 단계보다 S540 단계가 먼저 수행될 수도 있고, S535 단계와 S540 단계가 병렬적으로 수행될 수 도 있다. 증강현실 서비스 제공 장치(100)는 로봇(200)에 제한구역 정보를 제공할 수 있다(S545). 로봇(200)은 수신된 제한구역 정보를 저장하여 이동 태스크를 수행하는 경우에 활용할 수 있다.The augmented reality service providing apparatus 100 that has received the direction information from the robot 200 may create spatial information on the position and posture of the robot by fusing the 2D coordinate information obtained by itself and the received direction information ( S525). In addition, the augmented reality service providing apparatus 100 may track the robot 200 using the generated spatial information (S530). The augmented reality service providing apparatus 100 may determine a virtual object to be placed according to the contents of the augmented reality content to be provided. In addition, since the position of the robot 200 included in the image has been determined, the augmented reality service providing apparatus 100 may determine a position in which the virtual object is to be displayed based on the position or posture of the robot 200 (S535). In addition, the augmented reality service providing apparatus 100 may set a restricted area on the screen in which the robot 200 cannot move (S540). In the embodiment of FIG. 5, steps S535 and S540 are shown to be sequentially performed, but step S540 may be performed prior to step S535, or steps S535 and S540 may be performed in parallel. The augmented reality service providing apparatus 100 may provide restricted area information to the robot 200 (S545). The robot 200 may store the received restricted area information and use it when performing a moving task.

증강현실 서비스 제공 장치(100)는 가상 오브젝트를 결정된 위치에 합성하여 증강현실 영상을 생성하고, 생성된 증강현실 영상을 표시할 수 있다(S550). 증강현실 영상 안에서 로봇(200)을 제어할 수 있는 콘텐츠가 제공되는 경우, 증강현실 영상의 일 영역에는 로봇(200)을 조종하는 사용자 명령을 입력받기 위한 사용자 인터페이스가 표시될 수 있다. 사용자가 사용자 인터페이스를 통해 사용자 명령을 입력하면(S555), 증강현실 서비스 제공 장치(100)는 로봇(200)에 사용자 명령과 대응되는 기설정된 제어신호를 송신할 수 있다(S560). 로봇(200)은 수신된 제어신호에 따라 증강현실 영상 내에서 기설정된 동작을 수행할 수 있다(S565).The augmented reality service providing apparatus 100 may generate an augmented reality image by synthesizing a virtual object at a determined location and display the generated augmented reality image (S550). When content capable of controlling the robot 200 is provided in the augmented reality image, a user interface for receiving a user command for controlling the robot 200 may be displayed in one area of the augmented reality image. When the user inputs a user command through the user interface (S555), the augmented reality service providing apparatus 100 may transmit a preset control signal corresponding to the user command to the robot 200 (S560). The robot 200 may perform a preset operation in the augmented reality image according to the received control signal (S565).

상술한 바와 같은 증강현실 서비스 제공 시스템(1000)은 증강현실 콘텐츠의 일 부분을 구성하는 실제 로봇(200)을 공간정보 중 하나인 방향 정보를 획득하는 장비로 이용하여, 별도의 마커나 비콘 없이도 증강현실 서비스를 제공할 수 있다. 또한, 증강현실 서비스 제공 시스템(1000)은 가상 오브젝트뿐 아니라 실제 오브젝트인 로봇(200)과 안터랙션할 수 있는 증강현실 서비스를 제공함으로써 사용자에게 새로운 사용자 경험을 제공할 수 있다.The augmented reality service providing system 1000 as described above uses the actual robot 200 constituting a part of the augmented reality content as a device for acquiring direction information, which is one of the spatial information, and is augmented without a separate marker or beacon. Reality service can be provided. In addition, the augmented reality service providing system 1000 may provide a new user experience to a user by providing an augmented reality service capable of not only interacting with the robot 200 that is a real object as well as a virtual object.

도 6은 증강현실 서비스 제공 장치(100)에서 제공되는 증강현실 서비스의 일 예를 도시한 도면이다. 모바일 장치로 구현된 증강현실 서비스 제공 장치(100)의 화면에 로봇(200)이 포함된 증강현실 영상이 표시되어 있다. 증강현실 서비스 제공 장치(100) 및 로봇(200)에서 각각 획득한 정보를 기초로 로봇(200)의 위치 및 자세가 인지된다. 도 6의 화면에서는 인지된 로봇(200)의 위치에 사각형의 가상 상자가 표시되어 있다. 또한, 로봇(200)의 주위에 동물, 포탄과 같은 가상 오브젝트가 표시되어 있다. 증강현실 서비스 제공 장치(100)와 로봇(200)에서 각각 2차원 좌표 정보와 방향 정보를 주기적으로 갱신하기 때문에, 증강현실 서비스 제공 장치(100)는 로봇(200)을 실시간으로 추적할 수 있다. 예를 들어, 증강현실 서비스 제공 장치(100)는 실시간으로 추적된 로봇(200)의 위치를 기초로 가상 오브젝트인 포탄을 로봇(200)이 위치한 곳으로 이동시키는 증강현실 게임 콘텐츠를 제공할 수 있다. 다른 예로, 가상 오브젝트는 기설정된 알고리즘에 따라 이동할 수도 있다. 만일 가상 오브젝트와 로봇(200)의 위치가 중첩되는 것으로 판단되면, 증강현실 서비스 제공 장치(100)는 알림 신호를 출력할 수 있다.6 is a diagram illustrating an example of an augmented reality service provided by the augmented reality service providing apparatus 100. An augmented reality image including the robot 200 is displayed on the screen of the augmented reality service providing apparatus 100 implemented as a mobile device. The position and posture of the robot 200 are recognized based on information respectively acquired by the augmented reality service providing apparatus 100 and the robot 200. In the screen of FIG. 6, a rectangular virtual box is displayed at the recognized position of the robot 200. In addition, virtual objects such as animals and shells are displayed around the robot 200. Since the augmented reality service providing device 100 and the robot 200 periodically update 2D coordinate information and direction information, respectively, the augmented reality service providing device 100 can track the robot 200 in real time. For example, the augmented reality service providing apparatus 100 may provide an augmented reality game content that moves a shell, which is a virtual object, to a location where the robot 200 is based on the location of the robot 200 tracked in real time. . As another example, the virtual object may move according to a preset algorithm. If it is determined that the positions of the virtual object and the robot 200 overlap, the augmented reality service providing apparatus 100 may output a notification signal.

도 6에 도시되어 있는 바와 같이, 증강현실 영상이 표시되는 화면의 일 영역에는 로봇(200)을 조종하는 사용자 명령을 입력받기 위한 사용자 인터페이스(610)가 표시될 수 있다. 도 6에서는 로봇(200)을 중심으로 사각형의 형태의 제한구역의 경계(620)가 표시되어 있다. 로봇(200)을 제한구역의 경계(620)를 넘어 제한구역 안으로 이동하도록 하는 사용자 명령이 입력되면, 증강현실 서비스 제공 장치(100)는 로봇(200)이 제한구역의 경계까지만 이동하도록 하는 제어신호를 로봇(200)에 전송할 수 있다.As illustrated in FIG. 6, a user interface 610 for receiving a user command for manipulating the robot 200 may be displayed in an area of the screen where an augmented reality image is displayed. In FIG. 6, a boundary 620 of a restricted area in a rectangular shape is displayed around the robot 200. When a user command for moving the robot 200 beyond the boundary 620 of the restricted area into the restricted area is input, the augmented reality service providing device 100 is a control signal that allows the robot 200 to move only to the boundary of the restricted area. Can be transmitted to the robot 200.

도 7은 제한구역 설정과 갱신을 설명하기 위한 증강현실 영상의 일 예를 도시한 도면이다. 앞서 설명한 바와 같이 증강현실 서비스 제공 장치(100)는 로봇(200)의 위치를 기초로 가상 오브젝트의 위치를 결정할 수 있다. 뿐만 아니라 증강현실 서비스 제공 장치(100)는 로봇(200)이 이동 가능하며 증강현실 콘텐츠가 제공되는 영역을 설정할 수 있다. 반대로 말하면 로봇(200)이 이동할 수 없고, 증강현실 콘텐츠도 제공되지 않는 제한구역을 설정할 수 있다. 도 7에 도시된 제한구역의 경계선(710) 너머로 로봇(200)은 이동할 수 없고, 제한구역의 경계선(710) 안에서만 로봇(200)과 인터랙션하는 증강현실 콘텐츠가 제공된다. 최초의 제한구역은 영상에서의 로봇(200)의 위치에 따라 결정된다. 제한구역의 경계선(710) 내부에서 제공되는 콘텐츠에 대응하여, 제한구역의 경계선(710) 외부에는 배경화면 콘텐츠가 제공될 수 있다. 예를 들어, 제한구역의 경계선(710) 외부에는 관중석과 관중에 해당하는 가상의 배경 오브젝트를 합성하고, 제한구역의 경계선(710) 내부에는 로봇(200)과 가상 오브젝트가 스포츠 경기를 진행하는 콘텐츠가 제공될 수 있다.7 is a diagram illustrating an example of an augmented reality image for explaining setting and updating a restricted area. As described above, the augmented reality service providing apparatus 100 may determine the location of the virtual object based on the location of the robot 200. In addition, the augmented reality service providing apparatus 100 may set an area in which the robot 200 is movable and augmented reality content is provided. In other words, it is possible to set a restricted area in which the robot 200 cannot move and augmented reality content is not provided. The robot 200 cannot move beyond the boundary line 710 of the restricted area shown in FIG. 7, and an augmented reality content that interacts with the robot 200 is provided only within the boundary line 710 of the restricted area. The first restricted area is determined according to the position of the robot 200 in the image. In response to content provided inside the boundary line 710 of the restricted area, background screen content may be provided outside the boundary line 710 of the restricted area. For example, a virtual background object corresponding to the spectator seat and spectators is synthesized outside the boundary line 710 of the restricted area, and the robot 200 and the virtual object play sports inside the boundary line 710 of the restricted area. Can be provided.

로봇(200)에는 방향을 감지하는 관성측정부(210)뿐 아니라 장애물 등을 감지할 수 있는 센서가 포함된 센서부(220)가 있다. 로봇(200)은 증강현실 서비스를 제공하며 동작하는 도중에 부착된 센서를 이용하여 주변의 장애물, 벽 등을 감지하여 지형정보를 획득할 수 있다. 로봇(200)으로부터 획득된 지형정보를 수신한 증강현실 제공 장치(100)는 제한구역을 갱신할 수 있다. 도 7을 예로 들면, 로봇(200)은 증강현실 서비스를 제공하며 이동하는 중 제한구역의 경계(710) 안쪽에서 장애물(720)이나 벽(730)을 감지할 수 있다. 로봇(200)은 감지된 장애물(720)과 벽(730)의 위치, 형태 등에 관한 지형정보를 증강현실 서비스 제공 장치(100)로 송신하고, 증강현실 서비스 제공 장치(100)는 장애물(720)이나 벽(730)이 존재하는 영역을 추가적으로 제한구역으로 포함시킬 수 있다. 만일 증강현실 서비스 제공 도중 장애물(720)이 제거된 것으로 로봇(200)이 감지하면, 증강현실 서비스 제공 장치(100)는 장애물(720)이 놓여있던 영역을 제한구역에서 제외시킬 수도 있다. 증강현실 서비스 제공 장치(100)는 갱신된 제한구역의 형태를 기초로, 제한구역의 경계선(710) 외부에 표시할 배경 오브젝트를 결정할 수 있다. 예를 들어, 로봇(200)이 장애물을 많이 감지하여 제한구역이 좁고 긴 형태로 갱신되었다면, 증강현실 서비스 제공 장치(100)는 제한구역의 경계선(710) 외곽에 협곡의 모습을 한 배경 오브젝트를 합성할 수 있다.The robot 200 includes a sensor unit 220 including a sensor capable of detecting an obstacle as well as an inertial measurement unit 210 that senses a direction. The robot 200 provides an augmented reality service and may acquire topographic information by detecting nearby obstacles, walls, etc. using sensors attached during operation. The augmented reality providing apparatus 100 receiving the terrain information obtained from the robot 200 may update the restricted area. As an example of FIG. 7, the robot 200 provides an augmented reality service and may detect an obstacle 720 or a wall 730 inside the boundary 710 of the restricted area while moving. The robot 200 transmits topographic information about the detected obstacle 720 and the position and shape of the wall 730 to the augmented reality service providing device 100, and the augmented reality service providing device 100 is the obstacle 720 Alternatively, the area in which the wall 730 exists may be additionally included as a restricted area. If the robot 200 detects that the obstacle 720 has been removed while providing the augmented reality service, the augmented reality service providing apparatus 100 may exclude the area where the obstacle 720 was placed from the restricted area. The augmented reality service providing apparatus 100 may determine a background object to be displayed outside the boundary line 710 of the restricted area based on the updated shape of the restricted area. For example, if the robot 200 detects a lot of obstacles and the restricted area is updated in a narrow and long shape, the augmented reality service providing apparatus 100 creates a background object in the shape of a canyon outside the boundary line 710 of the restricted area. It can be synthesized.

도 8은 본 개시의 일 실시 예에 따른 로봇과 인터랙션하는 증강현실 서비스 제공 방법을 설명하기 위한 흐름도이다. 도 8을 참조하면, 증강현실 서비스 제공 장치(100)는 로봇(200)이 포함된 영상을 촬영하고, 촬영된 영상에서 위치 정보를 추출할 수 있다(S810). 위치 정보란 로봇(200)의 2차원 평면에서의 좌표를 나타내는 두 개의 스칼라 값으로 구성될 수 있다. 증강현실 서비스 제공 장치(100)는 로봇(200)의 색, 형태를 배경과 구분하는 알고리즘을 이용하여 로봇(200)이 위치한 2차원 좌표 정보를 추출할 수 있다.8 is a flowchart illustrating a method of providing an augmented reality service that interacts with a robot according to an embodiment of the present disclosure. Referring to FIG. 8, the augmented reality service providing apparatus 100 may capture an image including the robot 200 and extract location information from the captured image (S810). The location information may be composed of two scalar values representing coordinates in a two-dimensional plane of the robot 200. The augmented reality service providing apparatus 100 may extract 2D coordinate information where the robot 200 is located by using an algorithm that distinguishes the color and shape of the robot 200 from the background.

그리고 증강현실 서비스 제공 장치(100)는 로봇(200)으로부터 로봇(200)이 획득한 방향정보를 수신할 수 있다(S820). 로봇(200)은 관성측정부(210)를 통해 자신이 향하고 있는 방향을 감지할 수 있다. 예를 들어, 로봇(200)은 벡터 값인 자신이 요 방향으로 얼마나 기울어졌는지에 대한 방향정보를 획득할 수 있다. 로봇(200)은 획득한 방향정보를 증강현실 서비스 제공 장치(100)로 송신할 수 있다.Further, the augmented reality service providing apparatus 100 may receive direction information acquired by the robot 200 from the robot 200 (S820). The robot 200 may detect the direction it is facing through the inertial measurement unit 210. For example, the robot 200 may acquire direction information on how much it is inclined in the yaw direction, which is a vector value. The robot 200 may transmit the acquired direction information to the augmented reality service providing apparatus 100.

증강현실 서비스 제공 장치(100)는 로봇(200)으로부터 수신한 방향정보와 영상처리를 통해 획득한 2차원 좌표 정보를 융합하여, 2차원 평면에서의 로봇(200)의 위치 및 자세에 관한 공간정보를 생성할 수 있다 (S830). 그리고 증강현실 서비스 제공 장치(100)는 생성된 공간정보를 기초로 로봇(200)을 추적할 수 있다. 또한, 증강현실 서비스 제공 장치(100)는 제공할 증강현실 콘텐츠를 기초로 렌더링할 가상 오브젝트를 결정할 수 있다. 그리고 증강현실 서비스 제공 장치(100)는 로봇(200)의 위치를 기초로 가상 오브젝트가 표시될 위치를 결정할 수 있다. 또한 증강현실 서비스 제공 장치(100)는 증강현실 영상의 일 영역에 제한구역을 설정할 수 있다(S840). 제한구역 이외의 영역에서 증강현실 콘텐츠가 제공되고, 로봇(200)이 증강현실 서비스 제공 장치(100)의 제어에 따라 이동할 수 있다. 증강현실 서비스 제공 장치(100)는 가상 오브젝트 등을 합성하여 증강현실 영상을 표시할 수 있다(S850). 가상 오브젝트 이외에도 로봇(200)을 조종하기 위한 사용자 인터페이스, 제한구역의 경계 등이 증강현실 영상에 포함되어 표시될 수 있다. 그 밖의 증강현실 서비스 제공 방법에 대한 다양한 실시 예에 대한 설명은 증강현실 서비스 제공 장치(100)에 대한 설명과 중복되는바 생략하기로 한다.The augmented reality service providing apparatus 100 fuses the direction information received from the robot 200 and the 2D coordinate information obtained through image processing to provide spatial information on the position and posture of the robot 200 in the 2D plane. Can be generated (S830). In addition, the augmented reality service providing apparatus 100 may track the robot 200 based on the generated spatial information. In addition, the augmented reality service providing apparatus 100 may determine a virtual object to be rendered based on the augmented reality content to be provided. In addition, the augmented reality service providing apparatus 100 may determine a location in which the virtual object is to be displayed based on the location of the robot 200. In addition, the augmented reality service providing apparatus 100 may set a restricted area in an area of the augmented reality image (S840). Augmented reality content is provided in an area other than the restricted area, and the robot 200 may move under the control of the augmented reality service providing apparatus 100. The augmented reality service providing apparatus 100 may display an augmented reality image by synthesizing a virtual object (S850). In addition to the virtual object, a user interface for controlling the robot 200, a boundary of a restricted area, etc. may be included in the augmented reality image and displayed. Descriptions of various embodiments of the other augmented reality service providing method will be omitted since they overlap with the description of the augmented reality service providing apparatus 100.

상기에서 설명된 방법들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 개시를 위해 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), SSD, ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해 실행될 수 있는 언어 코드를 포함한다. 상기의 하드웨어 장치는 본 개시의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The methods described above may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the present disclosure, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -Includes hardware devices specially configured to store and execute program instructions such as magneto-optical media, SSD, ROM, RAM, flash memory, etc. Examples of the program instructions include not only machine language codes such as those produced by a compiler, but also language codes that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operation of the present disclosure, and vice versa.

이상과 같은 본 개시는 비록 한정된 실시 예와 도면에 의해 설명되었으나, 본 개시는 상기의 실시 예에 한정되는 것은 아니며, 본 개시가 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 그러므로 본 개시의 범위는 설명된 실시 예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Although the present disclosure as described above has been described by the limited embodiments and drawings, the present disclosure is not limited to the above embodiments, and various modifications and variations from these descriptions are those of ordinary skill in the field to which the present disclosure belongs. This is possible. Therefore, the scope of the present disclosure is limited to the described embodiments and should not be determined, and should be determined by the claims to be described later as well as those equivalent to the claims.

100: 증강현실 서비스 제공 장치 110: 카메라
120: 통신부 130: 디스플레이부
140: 프로세서 150: 사용자 인터페이스부
160: 출력부 170: 메모리
200: 로봇 210: 관성측정부
220: 센서부 230: 통신부
240: 구동부 250: 전원부
260: 프로세서 1000: 증강현실 서비스 제공 시스템
100: augmented reality service providing device 110: camera
120: communication unit 130: display unit
140: processor 150: user interface unit
160: output unit 170: memory
200: robot 210: inertial measurement unit
220: sensor unit 230: communication unit
240: driving unit 250: power supply
260: processor 1000: augmented reality service providing system

Claims (12)

로봇과 인터랙션하는 증강현실 서비스 제공 장치에 있어서,
상기 로봇과 통신하는 통신부;
영상을 촬영하는 카메라;
영상을 표시하는 디스플레이부; 및
상기 카메라에서 상기 로봇을 촬영한 영상으로부터 상기 로봇의 위치정보를 추출하고, 상기 통신부를 통해 상기 로봇이 획득한 방향정보가 수신되면, 상기 추출된 위치정보와 상기 수신된 방향정보를 기초로 상기 로봇의 위치 및 자세에 관한 공간정보를 생성하고, 상기 생성된 공간정보를 이용하여 상기 로봇을 추적하고 가상 오브젝트가 표시될 위치를 결정하며 상기 로봇이 이동할 수 없는 제한구역을 설정하고, 상기 촬영된 영상에 상기 가상 오브젝트를 합성한 증강현실 영상을 표시하도록 상기 디스플레이부를 제어하는 프로세서;를 포함하고,
상기 제한구역은 상기 로봇과 인터렉션하는 증강현실 영상이 제공되는 영역 이외의 영역인 증강현실 서비스 제공 장치.
In an augmented reality service providing device that interacts with a robot,
A communication unit communicating with the robot;
A camera that takes an image;
A display unit that displays an image; And
When the position information of the robot is extracted from the image captured by the robot by the camera, and the direction information acquired by the robot is received through the communication unit, the robot based on the extracted position information and the received direction information Generates spatial information about the position and posture of the robot, tracks the robot using the generated spatial information, determines a position where a virtual object is to be displayed, sets a restricted area in which the robot cannot move, and sets the captured image A processor that controls the display unit to display an augmented reality image obtained by synthesizing the virtual object in
The restricted area is an augmented reality service providing apparatus which is an area other than an area in which an augmented reality image interacting with the robot is provided.
제1항에 있어서,
상기 추출된 위치정보는 상기 로봇의 2차원 좌표 정보를 나타내는 스칼라 값이고,
상기 수신된 방향정보는 상기 로봇의 요(yaw) 방향 정보를 나타내는 벡터 값이며, 상기 로봇에 부착된 관성측정부를 통해 획득된 것인 증강현실 서비스 제공 장치.
The method of claim 1,
The extracted location information is a scalar value representing two-dimensional coordinate information of the robot,
The received direction information is a vector value indicating information on a yaw direction of the robot, and is obtained through an inertial measurement unit attached to the robot.
제1항에 있어서,
상기 로봇의 동작을 제어하는 사용자 명령을 입력받는 사용자 인터페이스부;를 더 포함하고,
상기 프로세서는,
상기 사용자 인터페이스부를 통해 입력된 사용자 명령과 대응되는 제어신호를 상기 로봇에 전송하도록 상기 통신부를 제어하는 증강현실 서비스 제공 장치.
The method of claim 1,
A user interface unit receiving a user command for controlling the operation of the robot; further comprising,
The processor,
An augmented reality service providing apparatus for controlling the communication unit to transmit a control signal corresponding to a user command input through the user interface unit to the robot.
로봇과 인터랙션하는 증강현실 서비스 제공 장치에 있어서,
상기 로봇과 통신하는 통신부;
영상을 촬영하는 카메라;
영상을 표시하는 디스플레이부;
상기 로봇의 동작을 제어하는 사용자 명령을 입력받는 사용자 인터페이스부; 및
상기 카메라에서 상기 로봇을 촬영한 영상으로부터 상기 로봇의 위치정보를 추출하고, 상기 통신부를 통해 상기 로봇이 획득한 방향정보가 수신되면, 상기 추출된 위치정보와 상기 수신된 방향정보를 기초로 상기 로봇의 위치 및 자세에 관한 공간정보를 생성하고, 상기 생성된 공간정보를 이용하여 상기 로봇을 추적하고 가상 오브젝트가 표시될 위치를 결정하며 상기 로봇이 이동할 수 없는 제한구역을 설정하고, 상기 촬영된 영상에 상기 가상 오브젝트를 합성한 증강현실 영상을 표시하도록 상기 디스플레이부를 제어하는 프로세서;를 포함하고,
상기 프로세서는, 상기 로봇을 상기 설정된 제한구역 안으로 이동시키는 사용자 명령이 입력되면, 상기 설정된 제한구역의 경계까지 이동한 후 이동을 중단하도록 하는 제어신호를 상기 로봇에 전송하도록 상기 통신부를 제어하는 증강현실 서비스 제공 장치.
In an augmented reality service providing device that interacts with a robot,
A communication unit communicating with the robot;
A camera that takes an image;
A display unit that displays an image;
A user interface unit receiving a user command for controlling the operation of the robot; And
When the position information of the robot is extracted from the image captured by the robot by the camera, and the direction information acquired by the robot is received through the communication unit, the robot based on the extracted position information and the received direction information Generates spatial information about the position and posture of the robot, tracks the robot using the generated spatial information, determines a position where a virtual object is to be displayed, sets a restricted area in which the robot cannot move, and sets the captured image A processor for controlling the display unit to display an augmented reality image obtained by synthesizing the virtual object in
The processor is an augmented reality that controls the communication unit to transmit a control signal to the robot to stop the movement after moving to the boundary of the set restricted area when a user command for moving the robot into the set restricted area is input. Service provision device.
로봇과 인터랙션하는 증강현실 서비스 제공 장치에 있어서,
상기 로봇과 통신하는 통신부;
영상을 촬영하는 카메라;
영상을 표시하는 디스플레이부;
알림 신호를 피드백하는 출력부; 및
상기 카메라에서 상기 로봇을 촬영한 영상으로부터 상기 로봇의 위치정보를 추출하고, 상기 통신부를 통해 상기 로봇이 획득한 방향정보가 수신되면, 상기 추출된 위치정보와 상기 수신된 방향정보를 기초로 상기 로봇의 위치 및 자세에 관한 공간정보를 생성하고, 상기 생성된 공간정보를 이용하여 상기 로봇을 추적하고 가상 오브젝트가 표시될 위치를 결정하며 상기 로봇이 이동할 수 없는 제한구역을 설정하고, 상기 촬영된 영상에 상기 가상 오브젝트를 합성한 증강현실 영상을 표시하도록 상기 디스플레이부를 제어하는 프로세서;를 포함하고,
상기 프로세서는, 상기 가상 오브젝트가 기설정된 알고리즘에 따라 이동하도록 제어하고, 상기 로봇의 위치가 상기 가상 오브젝트의 위치와 중첩되면 알림 신호를 제공하도록 상기 출력부를 제어하는 증강현실 서비스 제공 장치.
In an augmented reality service providing device that interacts with a robot,
A communication unit communicating with the robot;
A camera that takes an image;
A display unit that displays an image;
An output unit for feeding back a notification signal; And
When the position information of the robot is extracted from the image captured by the robot by the camera, and the direction information acquired by the robot is received through the communication unit, the robot based on the extracted position information and the received direction information Generates spatial information about the position and posture of the robot, tracks the robot using the generated spatial information, determines a position where a virtual object is to be displayed, sets a restricted area in which the robot cannot move, and sets the captured image A processor for controlling the display unit to display an augmented reality image obtained by synthesizing the virtual object in
The processor, an augmented reality service providing apparatus that controls the virtual object to move according to a preset algorithm, and controls the output unit to provide a notification signal when the position of the robot overlaps the position of the virtual object.
로봇과 인터랙션하는 증강현실 서비스 제공 장치에 있어서,
상기 로봇과 통신하는 통신부;
영상을 촬영하는 카메라;
영상을 표시하는 디스플레이부; 및
상기 카메라에서 상기 로봇을 촬영한 영상으로부터 상기 로봇의 위치정보를 추출하고, 상기 통신부를 통해 상기 로봇이 획득한 방향정보가 수신되면, 상기 추출된 위치정보와 상기 수신된 방향정보를 기초로 상기 로봇의 위치 및 자세에 관한 공간정보를 생성하고, 상기 생성된 공간정보를 이용하여 상기 로봇을 추적하고 가상 오브젝트가 표시될 위치를 결정하며 상기 로봇이 이동할 수 없는 제한구역을 설정하고, 상기 촬영된 영상에 상기 가상 오브젝트를 합성한 증강현실 영상을 표시하도록 상기 디스플레이부를 제어하는 프로세서;를 포함하고,
상기 프로세서는, 상기 통신부를 통해 상기 로봇에 부착된 센서를 통해 획득된 지형정보가 수신되면, 상기 수신된 지형정보를 기초로 상기 제한구역을 갱신하는 증강현실 서비스 제공 장치.
In an augmented reality service providing device that interacts with a robot,
A communication unit communicating with the robot;
A camera that takes an image;
A display unit that displays an image; And
When the position information of the robot is extracted from the image captured by the robot by the camera, and the direction information acquired by the robot is received through the communication unit, the robot based on the extracted position information and the received direction information Generates spatial information about the position and posture of the robot, tracks the robot using the generated spatial information, determines a position where a virtual object is to be displayed, sets a restricted area in which the robot cannot move, and sets the captured image A processor that controls the display unit to display an augmented reality image obtained by synthesizing the virtual object in
The processor, when receiving the terrain information obtained through the sensor attached to the robot through the communication unit, an augmented reality service providing apparatus for updating the restricted area based on the received terrain information.
로봇과 인터랙션하는 증강현실 서비스 제공 방법에 있어서,
상기 로봇의 외부에 위치한 카메라로 상기 로봇이 포함된 영상을 촬영하고, 상기 촬영된 영상으로부터 상기 로봇의 위치정보를 추출하는 단계;
상기 로봇이 획득한 방향정보를 수신하는 단계;
상기 추출된 위치정보와 상기 획득된 방향정보를 기초로 상기 로봇의 위치 및 자세에 관한 공간정보를 생성하는 단계;
상기 생성된 공간정보를 이용하여 상기 로봇을 추적하고, 가상 오브젝트가 표시될 위치를 결정하며, 상기 로봇이 이동할 수 없는 제한구역을 설정하는 단계; 및
상기 촬영된 영상에 가상 오브젝트를 합성한 증강현실 영상을 표시하는 단계;를 포함하고,
상기 제한구역은 상기 로봇과 인터랙션하는 증강현실 영상이 제공되는 영역 이외의 영역인 증강현실 서비스 제공 방법.
In the method of providing an augmented reality service that interacts with a robot,
Capturing an image including the robot with a camera located outside the robot, and extracting location information of the robot from the captured image;
Receiving direction information acquired by the robot;
Generating spatial information about the position and posture of the robot based on the extracted position information and the obtained direction information;
Tracking the robot using the generated spatial information, determining a position where a virtual object is to be displayed, and setting a restricted area in which the robot cannot move; And
Including; displaying an augmented reality image obtained by synthesizing a virtual object with the captured image,
The augmented reality service providing method in which the restricted area is an area other than an area in which an augmented reality image interacting with the robot is provided.
제7항에 있어서,
상기 추출된 위치정보는 상기 로봇의 2차원 좌표 정보를 나타내는 스칼라 값이고,
상기 수신된 방향정보는 상기 로봇의 요(yaw) 방향 정보를 나타내는 벡터 값이며, 상기 로봇에 부착된 관성측정부를 통해 획득된 것인 증강현실 서비스 제공 방법.
The method of claim 7,
The extracted location information is a scalar value representing two-dimensional coordinate information of the robot,
The received direction information is a vector value indicating information on a yaw direction of the robot, and is obtained through an inertial measurement unit attached to the robot.
제7항에 있어서,
상기 로봇의 동작을 제어하는 사용자 명령이 입력되면, 상기 입력된 사용자 명령과 대응되는 제어신호를 상기 로봇에 전송하는 단계;를 더 포함하는 증강현실 서비스 제공 방법.
The method of claim 7,
When a user command for controlling the operation of the robot is input, transmitting a control signal corresponding to the input user command to the robot.
로봇과 인터랙션하는 증강현실 서비스 제공 방법에 있어서,
상기 로봇이 포함된 영상을 촬영하고, 상기 촬영된 영상으로부터 상기 로봇의 위치정보를 추출하는 단계;
상기 로봇이 획득한 방향정보를 수신하는 단계;
상기 추출된 위치정보와 상기 획득된 방향정보를 기초로 상기 로봇의 위치 및 자세에 관한 공간정보를 생성하는 단계;
상기 생성된 공간정보를 이용하여 상기 로봇을 추적하고, 가상 오브젝트가 표시될 위치를 결정하며, 상기 로봇이 이동할 수 없는 제한구역을 설정하는 단계;
상기 촬영된 영상에 가상 오브젝트를 합성한 증강현실 영상을 표시하는 단계; 및
상기 로봇을 상기 설정된 제한구역 안으로 이동시키는 사용자 명령이 입력되면, 상기 설정된 제한구역의 경계까지 이동한 후 이동을 중단하도록 하는 제어신호를 상기 로봇에 전송하는 단계;를 포함하는 증강현실 서비스 제공 방법.
In the method of providing an augmented reality service that interacts with a robot,
Capturing an image including the robot and extracting location information of the robot from the captured image;
Receiving direction information acquired by the robot;
Generating spatial information about the position and posture of the robot based on the extracted position information and the obtained direction information;
Tracking the robot using the generated spatial information, determining a position where a virtual object is to be displayed, and setting a restricted area in which the robot cannot move;
Displaying an augmented reality image obtained by synthesizing a virtual object with the captured image; And
When a user command to move the robot into the set restricted area is input, transmitting a control signal to stop the movement after moving to the boundary of the set restricted area to the robot.
로봇과 인터랙션하는 증강현실 서비스 제공 방법에 있어서,
상기 로봇이 포함된 영상을 촬영하고, 상기 촬영된 영상으로부터 상기 로봇의 위치정보를 추출하는 단계;
상기 로봇이 획득한 방향정보를 수신하는 단계;
상기 추출된 위치정보와 상기 획득된 방향정보를 기초로 상기 로봇의 위치 및 자세에 관한 공간정보를 생성하는 단계;
상기 생성된 공간정보를 이용하여 상기 로봇을 추적하고, 가상 오브젝트가 표시될 위치를 결정하며, 상기 로봇이 이동할 수 없는 제한구역을 설정하는 단계;
상기 촬영된 영상에 가상 오브젝트를 합성한 증강현실 영상을 표시하는 단계;
상기 가상 오브젝트가 기설정된 알고리즘에 따라 이동하도록 제어하는 단계; 및
상기 로봇의 위치가 상기 가상 오브젝트의 위치와 중첩되면 알림 신호를 제공하는 단계;를 포함하는 증강현실 서비스 제공 방법.
In the method of providing an augmented reality service that interacts with a robot,
Capturing an image including the robot and extracting location information of the robot from the captured image;
Receiving direction information acquired by the robot;
Generating spatial information about the position and posture of the robot based on the extracted position information and the obtained direction information;
Tracking the robot using the generated spatial information, determining a position where a virtual object is to be displayed, and setting a restricted area in which the robot cannot move;
Displaying an augmented reality image obtained by synthesizing a virtual object with the captured image;
Controlling the virtual object to move according to a preset algorithm; And
Providing a notification signal when the location of the robot overlaps the location of the virtual object; augmented reality service providing method comprising a.
로봇과 인터랙션하는 증강현실 서비스 제공 방법에 있어서,
상기 로봇이 포함된 영상을 촬영하고, 상기 촬영된 영상으로부터 상기 로봇의 위치정보를 추출하는 단계;
상기 로봇이 획득한 방향정보를 수신하는 단계;
상기 추출된 위치정보와 상기 획득된 방향정보를 기초로 상기 로봇의 위치 및 자세에 관한 공간정보를 생성하는 단계;
상기 생성된 공간정보를 이용하여 상기 로봇을 추적하고, 가상 오브젝트가 표시될 위치를 결정하며, 상기 로봇이 이동할 수 없는 제한구역을 설정하는 단계; 및
상기 촬영된 영상에 가상 오브젝트를 합성한 증강현실 영상을 표시하는 단계;를 포함하고,
상기 제한구역을 설정하는 단계는,
상기 로봇에 부착된 센서를 통해 획득된 지형정보가 수신되면, 상기 수신된 지형정보를 기초로 상기 제한구역을 갱신하는 증강현실 서비스 제공 방법.
In the method of providing an augmented reality service that interacts with a robot,
Capturing an image including the robot and extracting location information of the robot from the captured image;
Receiving direction information acquired by the robot;
Generating spatial information about the position and posture of the robot based on the extracted position information and the obtained direction information;
Tracking the robot using the generated spatial information, determining a position where a virtual object is to be displayed, and setting a restricted area in which the robot cannot move; And
Including; displaying an augmented reality image obtained by synthesizing a virtual object with the captured image,
The step of setting the restricted area,
When the terrain information acquired through the sensor attached to the robot is received, the augmented reality service providing method of updating the restricted area based on the received terrain information.
KR1020180095823A 2018-08-17 2018-08-17 AUGMENTED REALITY SERVICE PROVIDING APPARATUS INTERACTING WITH ROBOT and METHOD OF THEREOF KR102190743B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180095823A KR102190743B1 (en) 2018-08-17 2018-08-17 AUGMENTED REALITY SERVICE PROVIDING APPARATUS INTERACTING WITH ROBOT and METHOD OF THEREOF

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180095823A KR102190743B1 (en) 2018-08-17 2018-08-17 AUGMENTED REALITY SERVICE PROVIDING APPARATUS INTERACTING WITH ROBOT and METHOD OF THEREOF

Publications (2)

Publication Number Publication Date
KR20200020295A KR20200020295A (en) 2020-02-26
KR102190743B1 true KR102190743B1 (en) 2020-12-15

Family

ID=69637842

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180095823A KR102190743B1 (en) 2018-08-17 2018-08-17 AUGMENTED REALITY SERVICE PROVIDING APPARATUS INTERACTING WITH ROBOT and METHOD OF THEREOF

Country Status (1)

Country Link
KR (1) KR102190743B1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102391628B1 (en) * 2019-02-18 2022-04-28 김종태 Smart Coding Block System that can work with augmented reality
CN112781319B (en) 2019-11-05 2022-11-01 Lg电子株式会社 Refrigerator with a door
KR102393627B1 (en) * 2020-08-28 2022-05-02 한국로봇융합연구원 Mr environment and robot interaction training system
CN114098719A (en) * 2021-11-30 2022-03-01 歌尔科技有限公司 Action detection method and device and wearable device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101077967B1 (en) * 2010-02-09 2011-10-28 중앙대학교 산학협력단 Apparatus and method for surveillance and tracking
US10896543B2 (en) * 2014-08-25 2021-01-19 X Development Llc Methods and systems for augmented reality to display virtual representations of robotic device actions

Also Published As

Publication number Publication date
KR20200020295A (en) 2020-02-26

Similar Documents

Publication Publication Date Title
US11644832B2 (en) User interaction paradigms for a flying digital assistant
US11861892B2 (en) Object tracking by an unmanned aerial vehicle using visual sensors
US11460844B2 (en) Unmanned aerial image capture platform
US20240062663A1 (en) User Interaction With An Autonomous Unmanned Aerial Vehicle
KR102190743B1 (en) AUGMENTED REALITY SERVICE PROVIDING APPARATUS INTERACTING WITH ROBOT and METHOD OF THEREOF
US10354407B2 (en) Camera for locating hidden objects
CN111344644B (en) Techniques for motion-based automatic image capture
EP4342792A2 (en) Systems and methods for uav flight control
WO2017071143A1 (en) Systems and methods for uav path planning and control
US10169880B2 (en) Information processing apparatus, information processing method, and program
KR20180118219A (en) Interfacing with a mobile telepresence robot
JP6943988B2 (en) Control methods, equipment and systems for movable objects
WO2019019819A1 (en) Mobile electronic device and method for processing tasks in task region
CN108415675B (en) Information processing apparatus, information processing system, and information processing method
JP2021193538A (en) Information processing device, mobile device, information processing system and method, and program
CN108415676B (en) Information processing apparatus and information processing method
EP4207100A1 (en) Method and system for providing user interface for map target creation
WO2024087456A1 (en) Determination of orientation information and autonomous vehicle
JP2023083072A (en) Method, system and program
JP2021047424A (en) Information processing device, information processing system and program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant