KR102159721B1 - Communication apparatus providing augmented reality service using amr space position information, and control method thereof - Google Patents

Communication apparatus providing augmented reality service using amr space position information, and control method thereof Download PDF

Info

Publication number
KR102159721B1
KR102159721B1 KR1020190161014A KR20190161014A KR102159721B1 KR 102159721 B1 KR102159721 B1 KR 102159721B1 KR 1020190161014 A KR1020190161014 A KR 1020190161014A KR 20190161014 A KR20190161014 A KR 20190161014A KR 102159721 B1 KR102159721 B1 KR 102159721B1
Authority
KR
South Korea
Prior art keywords
amr
information
marker
camera
location information
Prior art date
Application number
KR1020190161014A
Other languages
Korean (ko)
Inventor
이창은
연주영
이상훈
김용진
Original Assignee
에스피테크놀러지 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스피테크놀러지 주식회사 filed Critical 에스피테크놀러지 주식회사
Priority to KR1020190161014A priority Critical patent/KR102159721B1/en
Application granted granted Critical
Publication of KR102159721B1 publication Critical patent/KR102159721B1/en

Links

Images

Classifications

    • H04M1/72572
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72457User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to geographic location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/025Services making use of location information using location based information parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/34Microprocessors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/38Displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera

Abstract

The present invention relates to a control method of a communication terminal providing an augmented reality (AR) service by utilizing autonomous mobile robot (AMR) space location information. According to the present invention, the control method of the communication terminal providing the AR service by utilizing AMR space location information comprises the steps of: photographing AR marker using a provided photographing camera; estimating an initial position and an initial posture of the camera based on the photographed image of the AR marker; receiving position information of the AMR from a server; determining whether the AMR exists in a camera photographing area based on location information of the AMR received in the previous step, the initial location and the initial posture of the camera estimated in the previous step, and movement information obtained through a previously provided movement sensor; and displaying a virtual object corresponding to the AMR using an AR technique when the AMR exists in the camera photographing area as a result of the determination of the previous step.

Description

AMR 공간 위치 정보를 활용하여 AR 서비스를 제공하는 통신 단말기 및 그 제어방법{COMMUNICATION APPARATUS PROVIDING AUGMENTED REALITY SERVICE USING AMR SPACE POSITION INFORMATION, AND CONTROL METHOD THEREOF}Communication terminal that provides AR service using AMR spatial location information and its control method {COMMUNICATION APPARATUS PROVIDING AUGMENTED REALITY SERVICE USING AMR SPACE POSITION INFORMATION, AND CONTROL METHOD THEREOF}

본 발명은 통신 단말기 및 그 제어방법에 관한 것으로, 보다 상세하게는 AMR 공간 위치 정보를 활용하여 AR 서비스를 제공하는 통신 단말기 및 그 제어방법에 관한 것이다.The present invention relates to a communication terminal and a control method thereof, and more particularly, to a communication terminal that provides an AR service using AMR spatial location information, and a control method thereof.

AGV(Automatic Guided Vehicle)는 운전자 없이 자동으로 움직이는 산업용 차량을 지칭하는 용어로, ANSI(American National Standards Institute)에서 공식적인 용어로 사용되고 있다.AGV (Automatic Guided Vehicle) is a term referring to an industrial vehicle that automatically moves without a driver, and is used as an official term in the American National Standards Institute (ANSI).

AGV는 제조 시설이나 유통 센터 등에서 자재를 자동으로 이동시키는 솔루션으로 자리매김했고, 최근에는 AMR(Autonomous Mobile Robot)이라는 용어를 앞세운 제품들이 큰 관심을 받고 있다.AGV has established itself as a solution that automatically moves materials in manufacturing facilities and distribution centers, and recently, products with the term AMR (Autonomous Mobile Robot) are receiving great attention.

심지어 몇몇 기업들은 AMR이 AGV를 대체해 물류 이동에 대한 새로운 시대를 가져올 것으로 말하기도 한다. 참고로 AMR과 AGV의 관계에 대해 설명하면 다음과 같다.Some companies even say that AMR will replace AGV and bring about a new era for logistics movement. For reference, the relationship between AMR and AGV is as follows.

1) AMR은 AGV의 하위 집합이다.1) AMR is a subset of AGV.

AMR은 기존 AGV와 차별화를 주장하면서 완전히 새로운 자재 이동을 구현한다고 하지만, 이들 또한 AGV의 하위 집합이라고 할 수 있다. 탐색 기술과 페이로드 기능, 라우팅 기능에 중점을 둔 AGV의 일종인 것이다.AMR claims to be differentiated from existing AGVs and implements a completely new material movement, but these are also a subset of AGVs. It is a kind of AGV that focuses on search technology, payload function, and routing function.

2) AGV는 애플리케이션에 가장 적합한 탐색 유형을 사용한다.2) AGV uses the type of search that is most suitable for the application.

AMR을 AGV와 비교할 때 차이점으로 강조되는 것이 탐색 방법으로, 과거 AGV는 시설 바닥에 매설된 와이어나 자석에 의해 유도된 경로를 따라 갔지만, 오늘날의 AGV는 애플리케이션에 가장 적합한 탐색 유형을 사용한다.The difference between AMR and AGV is the search method, where in the past AGVs followed a path guided by wires or magnets buried in the facility floor, but today AGVs use the type of search that best suits the application.

전통적인 와이어 유도를 사용하기도 하지만 레이저 또는 카메라 기술을 활용할 수도 있다. AGV의 실제 탐색 경로는 어디로 가야 하는지를 지시하는 소프트웨어에 의해 결정되며, 이 소프트웨어는 차량 관리 및 탑재 소프트웨어를 모두 연결하여 최적인 경로를 결정하며, 사람이나 다른 AGV에 의해 경로가 차단되면 다른 경로로 변경을 지시한다. Traditional wire guidance is sometimes used, but laser or camera technology can also be used. The AGV's actual navigation path is determined by software that tells where to go, which connects both vehicle management and onboard software to determine the best route, and if the route is blocked by a person or another AGV, it changes to another route. Instruct.

3) AGV는 동적 유도 경로를 사용할 수 있다.3) AGV can use dynamic guidance path.

AGV는 안내 경로를 따라 이동하지만 A에서 B까지 항상 같은 경로를 통과하는 것은 아니다. 일반적으로 AGV는 마치 도시의 거리처럼 한 위치에서 다른 위치로 이동할 수 있는 여러 가지 안내 정보를 갖고 있다. 이들 중 AGV 소프트웨어가 트래픽, 이동거리 및 기타 변수를 기반으로 지능적으로 선택해 각 기계를 가장 효율적인 경로로 라우팅 한다. 물론 AGV는 미리 결정된 경로에 따라 이동해야 한다. 이는 ANSI 안전 표준에 따른 것으로, 자동차에 비유하면 안전을 위해 골목길이 아닌 큰 도로만 다닌다는 것과 같다. 반대로 가벼운 물건을 빨리 옮기는 AMR은 골목을 누비는 자전거와 같아 사잇길을 찾으면서 더 부지런히 움직이는 것처럼 보인다.The AGV follows the guided path, but does not always go through the same path from A to B. In general, AGVs have a variety of information that can move from one location to another, just like a city street. Of these, AGV software intelligently selects based on traffic, distance traveled and other variables and routes each machine to the most efficient path. Of course, the AGV must travel along a predetermined path. This is in accordance with the ANSI safety standard, and compared to a car, it is like traveling only on large roads, not alleyways, for safety. On the contrary, AMR, which moves light items quickly, seems to move more diligently as it finds a road between it, like a bicycle going through an alley.

4) AGV는 가장 전통적인 협업 로봇이다.4) AGV is the most traditional collaborative robot.

AGV는 수십 년 동안 사람과 함께 작업장에서 운영되어 왔다. 아마 최초의 '협동 로봇'중 하나라고 말할 수 있다. AGV는 비교적 고정된 안내 경로를 사용하기 때문에 움직임에 대한 예측이 가능하다. 이는 더 안전할 수 있음을 의미한다. 또한 AGV는 ANSI 안전 표준에 따라 안전을 보장하고 있다. 나아가 최근에는 사람을 고려해 설계된 다양한 AGV가 선보이고 있다. 경로가 아닌 사람의 움직임을 쫓아 이동하며, 작업자가 제품을 선택하기 위해 멈추면 AGV도 따라 멈추어 제품을 실을 수 있게 하는 하이브리드 AGV가 대표적이다.AGVs have been operating in the workplace with people for decades. Probably one of the first'cooperative robots'. Since the AGV uses a relatively fixed guide path, it is possible to predict the movement. This means it can be safer. In addition, AGV guarantees safety according to ANSI safety standards. Furthermore, in recent years, various AGVs designed with human considerations have been introduced. A typical hybrid AGV is a hybrid AGV that follows the movement of people, not the path, and when the operator stops to select a product, the AGV also stops along with the product.

이러한 AMR과 AGV는 각각의 장단점을 지닌다. 어떤 기술을 사용하든 사용자의 요구에 맞는지를 확인하고 선택해야 한다. 단순하게 AGV를 트럭에, AMR을 자전거에 비유할 수 있다. AGV가 더 무거운 짐을 한 번에 많이 옮긴다면 AMR는 가벼운 짐을 지름길을 사용해 옮길 수 있다. 따라서 어떤 경우에는 AGV가, 어떤 경우에는 AMR이 더 적합한 선택이다. These AMR and AGVs have their own advantages and disadvantages. Whichever technology you use, you need to make sure that it suits your needs and chooses. You can simply compare AGV to a truck and an AMR to a bicycle. If the AGV carries a lot of heavier loads at once, AMR can move lighter loads using shortcuts. Therefore, in some cases AGV and in some cases AMR are the more suitable choices.

첨언하면, 공장이나 물류센터에서 라이더, 카메라, GPS 등 센서의 도움을 받아 스스로 목표를 찾아가고 장애물을 회피할 수 있는 것을 통틀어 자율 이동 로봇(AMR: Autonomous Mobile robots)이라 할 수 있다.Incidentally, it can be referred to as Autonomous Mobile Robots (AMR) in terms of finding a target and avoiding obstacles by itself with the help of sensors such as riders, cameras, and GPS in factories or distribution centers.

그런데, 종래에는 작업자가 AMR의 현재 작업 상태 등을 알기 위해서는 직접 그 AMR이 위치한 곳까지 가야만 하는 불편이 있다.However, in the related art, in order to know the current working state of the AMR, the operator has to go directly to the location where the AMR is located.

상술한 바와 같이 일반적으로 AMR이 사용되는 공간은 큰 공장 등이 될 수 있는데, 실제로 멀리서 AMR이 보이더라도 그 AMR의 정확한 위치를 알 수 없을 뿐만 아니라, 그 AMR의 현재 작업 상황 또는 작동 상태 등을 눈으로 식별할 수 없는 문제점이 있다.As described above, the space where AMR is generally used can be a large factory, etc.. Even if the AMR is actually visible from a distance, it is not possible to know the exact location of the AMR, as well as the current working status or operation status of the AMR. There is a problem that cannot be identified as.

등록실용신안 제20-0389099호Registered Utility Model No. 20-0389099

본 발명은 상기한 종래의 문제점을 해결하기 위해 안출된 것으로서, 그 목적은 AMR의 작업/동작 상태를 그 AMR에 가까이 다가가지 않고서도 증강현실 기법을 이용하여 용이하게 확인할 수 있도록 하는 통신 단말기 및 그 제어방법을 제공하는 것이다. The present invention was conceived to solve the above-described conventional problem, and its object is a communication terminal capable of easily checking the work/operation state of an AMR using an augmented reality technique without getting close to the AMR, and It is to provide a control method.

상기한 목적을 달성하기 위해 본 발명에 따른 AMR 공간 위치 정보를 활용하여 AR 서비스를 제공하는 통신 단말기는, 촬영 카메라와; 상기 촬영 카메라에 의해 촬영되는 AR(Augmented Reality) 마커의 촬영 이미지를 기초로 카메라의 초기 위치와 초기 자세를 추정하는 추정부와; 서버로부터 AMR(Autonomous Mobile Robot)의 위치 정보를 수신하는 AMR 정보 수신부와; 움직임을 감지하여 움직임 정보를 생성하는 움직임 센서와; 상기 AMR 정보 수신부에 수신된 상기 AMR의 위치 정보, 상기 추정부에 의해 추정된 카메라의 초기 위치와 초기 자세 및, 상기 움직임 센서를 통해 획득한 움직임 정보를 기초로 상기 AMR이 카메라 촬영 영역 내에 존재하는지 여부를 판단하는 판단부와; 상기 판단부의 판단 결과 카메라 촬영 영역 내에 상기 AMR이 존재하는 경우 해당 AMR에 대응되는 가상 객체를 증강현실 기법으로 표시하는 표시 제어부를 포함하여 구성된다.In order to achieve the above object, a communication terminal providing an AR service using AMR spatial location information according to the present invention includes: a photographing camera; An estimating unit for estimating an initial position and an initial posture of the camera based on a photographed image of an Augmented Reality (AR) marker photographed by the photographing camera; An AMR information receiving unit for receiving location information of AMR (Autonomous Mobile Robot) from the server; A motion sensor that detects motion and generates motion information; Based on the location information of the AMR received by the AMR information receiving unit, the initial position and initial posture of the camera estimated by the estimating unit, and whether the AMR exists in the camera photographing area based on the motion information obtained through the motion sensor A determination unit that determines whether or not; And a display control unit for displaying a virtual object corresponding to the AMR using an augmented reality technique when the AMR is present in the camera photographing area as a result of the determination by the determination unit.

또, 상기한 목적을 달성하기 위해 본 발명에 따른 AMR 공간 위치 정보를 활용하여 AR 서비스를 제공하는 통신 단말기의 제어방법은, 구비된 촬영 카메라를 이용하여 AR(Augmented Reality) 마커를 촬영하는 단계와; 상기 촬영된 AR 마커의 촬영 이미지를 기초로 카메라의 초기 위치와 초기 자세를 추정하는 단계와; 서버로부터 AMR(Autonomous Mobile Robot)의 위치 정보를 수신하는 단계와; 상기 단계에서 수신된 상기 AMR의 위치 정보, 상기 단계에서 추정된 카메라의 초기 위치와 초기 자세 및, 기 구비된 움직임 센서를 통해 획득한 움직임 정보를 기초로 상기 AMR이 카메라 촬영 영역 내에 존재하는지 여부를 판단하는 단계와; 상기 단계의 판단 결과 카메라 촬영 영역 내에 상기 AMR이 존재하는 경우 해당 AMR에 대응되는 가상 객체를 증강현실 기법으로 표시하는 단계를 포함하여 이루어진다.In addition, in order to achieve the above object, a control method of a communication terminal that provides an AR service using AMR spatial location information according to the present invention includes the steps of photographing an Augmented Reality (AR) marker using an equipped photographing camera. ; Estimating an initial position and an initial posture of the camera based on the captured image of the captured AR marker; Receiving location information of an Autonomous Mobile Robot (AMR) from a server; Based on the position information of the AMR received in the step, the initial position and initial posture of the camera estimated in the step, and whether the AMR exists in the camera photographing area based on the motion information acquired through the already equipped motion sensor. Determining; When the AMR is present in the camera photographing area as a result of the determination of the step, displaying a virtual object corresponding to the AMR using an augmented reality technique.

이상 설명한 바와 같이 본 발명에 따르면, AMR 장치가 가까이 있지 않더라도, 사용자의 통신 단말기를 이용하여 증강 현실 기법으로 해당 AMR 장치와 관련된 정보를 확인할 수 있다.As described above, according to the present invention, even if the AMR device is not nearby, information related to the AMR device can be checked using an augmented reality technique using a user's communication terminal.

특히, 가상의 객체만 표시하는 것이 아니라, AR 마커를 활용한 위치/자세 추정 등을 이용하여 카메라 촬영 영역에 해당 AMR 장치가 들어오는 경우에 한하여 증강 현실 기법으로 AMR에 대응되는 가상 객체 또는 각종 정보를 표현함으로써, 보다 정확하게 관련 AMR에 대한 정보의 표현이 가능해진다.In particular, not only displaying virtual objects, but only when the AMR device enters the camera shooting area using position/position estimation using AR markers, virtual objects or various information corresponding to the AMR are displayed using an augmented reality technique. By expressing, it becomes possible to more accurately express information on the related AMR.

도 1은 본 발명의 일 실시예에 따른 통신 단말기를 포함하는 전체 시스템의 개략 구성도이고,
도 2는 도 1의 통신 단말기의 기능 블록도이고,
도 3은 AR 마커의 일 예이고,
도 4는 AR 마커와 촬영 카메라(통신 단말기) 간의 위치/자세에 대한 상관관계를 분석하는 과정을 나타낸 도면이고,
도 5는 AMR 맵의 일 예이고,
도 6은 위치/자세 추정 및 AMR의 위치/자세를 이용하여 카메라 촬영 영역에 AMR이 포함되는지를 판단하는 과정을 나타낸 도면이고,
도 7은 본 발명의 일 실시예에 따른 통신 단말기의 제어흐름도이다.
1 is a schematic configuration diagram of an entire system including a communication terminal according to an embodiment of the present invention,
2 is a functional block diagram of the communication terminal of FIG. 1;
3 is an example of an AR marker,
4 is a view showing a process of analyzing the correlation of the position / posture between the AR marker and the photographing camera (communication terminal),
5 is an example of an AMR map,
6 is a view showing a process of determining whether an AMR is included in a camera photographing area using position/position estimation and AMR position/position,
7 is a control flow diagram of a communication terminal according to an embodiment of the present invention.

이하에서는 첨부도면을 참조하여 본 발명에 대해 상세히 설명한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

이하 본 발명에 따른 각 실시예는 본 발명의 이해를 돕기 위한 하나의 예에 불과하고, 본 발명이 이러한 실시예에 한정되는 것은 아니다. 특히 본 발명은 각 실시예에 포함되는 개별 구성, 개별 기능, 또는 개별 단계 중 적어도 어느 하나 이상의 조합으로 구성될 수 있다.Hereinafter, each embodiment according to the present invention is only one example for aiding understanding of the present invention, and the present invention is not limited to these embodiments. In particular, the present invention may be configured with a combination of at least one or more of individual configurations, individual functions, or individual steps included in each embodiment.

특히, 편의상 청구 범위의 일부 청구항에는 '(a)'와 같은 알파벳을 포함시켰으나, 이러한 알파벳이 각 단계의 순서를 규정하는 것은 아니다.In particular, for convenience, some claims in the claims include alphabets such as'(a)', but these alphabets do not prescribe the order of each step.

본 발명의 일 실시예에 따른 통신 단말기(100)를 포함하는 전체 시스템의 개략 구성은 도 1에 도시된 바와 같다.A schematic configuration of the entire system including the communication terminal 100 according to an embodiment of the present invention is as shown in FIG. 1.

동 도면에서 AMR(200)(Autonomous Mobile Robot)은 스스로 소정 공간(일 예로 공장 내)을 움직이면서 기 정해진 작업을 수행하는 장치이다.In the drawing, the AMR 200 (Autonomous Mobile Robot) is a device that performs a predetermined task while moving itself in a predetermined space (for example, in a factory).

이러한 AMR(200)은 서버(300)와 지속적으로 통신하면서 자신의 위치 정보 및/또는 자세 정보를 전송할 수 있다.The AMR 200 may transmit its own location information and/or posture information while continuously communicating with the server 300.

이때 AMR(200)은 기 설정된 지도(일명 AMR(200) 맵) 상에서 현재 자신의 위치를 서버(300)에 전송할 수 있는데, 이를 위해 AMR(200)에는 각종 움직임 센서(140)들이 포함될 수 있다.At this time, the AMR 200 may transmit its current location to the server 300 on a preset map (aka AMR 200 map), and for this purpose, various motion sensors 140 may be included in the AMR 200.

움직임 센서(140)에는 가속도 센서, 자이로 센서, 각속도 센서, 중력 센서, 기울기 센서 등이 포함될 수 있다.The motion sensor 140 may include an acceleration sensor, a gyro sensor, an angular velocity sensor, a gravity sensor, a tilt sensor, and the like.

즉, AMR(200)은 기 설정된 초기 위치로부터 움직임 센서(140)를 이용하여 판단된 움직임을 적용시켜 AMR(200) 맵 상에서 현재 자신의 위치 및 자세를 판단할 수 있고, 그 판단된 자신의 위치 정보 및 자세 정보(즉, 어느 방향을 향하는지에 대한 정보 등)를 서버(300)로 전송할 수 있는 것이다.That is, the AMR 200 can determine the current position and posture on the AMR 200 map by applying the determined motion using the motion sensor 140 from the preset initial position, and the determined own position Information and posture information (ie, information on which direction it is facing) can be transmitted to the server 300.

움직임 센서(140)를 이용하여 움직인 경로를 판단하고 자세를 판단하는 것 그 자체는 공지된 기술에 해당하므로 보다 상세한 설명을 생략한다.Determining a path that has been moved using the motion sensor 140 and determining a posture itself corresponds to a known technique, so a more detailed description thereof will be omitted.

한편, 서버(300)는 상술한 바와 같이 AMR(200)로부터 수신된 각 AMR(200)의 위치 정보, 자세 정보 등은 물론이고, 작업 진행 정보 등을 수신할 수 있다.Meanwhile, as described above, the server 300 may receive location information and posture information of each AMR 200 received from the AMR 200 as described above, as well as work progress information.

그리고 이렇게 AMR(200)로부터 수신된 정보를 통신 단말기(100)에 전송할 수 있고, 더 나아가 해당 AMR(200)에 대응되는 기 저장되어 있던 정보를 추출하여 통신 단말기(100)에 전송할 수도 있다.In addition, the information received from the AMR 200 may be transmitted to the communication terminal 100, and further, previously stored information corresponding to the AMR 200 may be extracted and transmitted to the communication terminal 100.

뿐만 아니라 통신 단말기(100)의 요청이 있는 경우 증강 현실에 적용시킬 가상 객체(즉, AMR(200)에 대응되는 가상 객체)를 통신 단말기(100)에 전송할 수도 있다.In addition, when there is a request from the communication terminal 100, a virtual object to be applied to the augmented reality (ie, a virtual object corresponding to the AMR 200) may be transmitted to the communication terminal 100.

한편, 통신 단말기(100)는 외부에 부착 또는 인쇄되어 있는 AR 마커를 촬영하고 분석하여 자신의 현재 위치 및 자세를 판단하고, 또한 서버(300)로부터 AMR(200)의 현재 위치 및 자세를 판단한 후, 촬영 영역에 AMR(200)이 존재하는지 여부에 따라 특정 기능을 수행한다.Meanwhile, the communication terminal 100 determines its current position and posture by photographing and analyzing an externally attached or printed AR marker, and also after determining the current position and posture of the AMR 200 from the server 300 , A specific function is performed according to whether the AMR 200 is present in the photographing area.

이러한 통신 단말기(100)의 구체적인 기능 블록의 일 예는 도 2에 도시된 바와 같다.An example of a specific functional block of the communication terminal 100 is as shown in FIG. 2.

동 도면에 도시된 바와 같이 통신 단말기(100)는 촬영 카메라(110), 추정부(120), AMR 정보 수신부(130), 움직임 센서(140), 움직임 센서(150), 표시 제어부(160), 저장부(170)를 포함하여 구성될 수 있다.As shown in the figure, the communication terminal 100 includes a photographing camera 110, an estimation unit 120, an AMR information receiving unit 130, a motion sensor 140, a motion sensor 150, a display control unit 160, and It may be configured to include a storage unit 170.

우선, 저장부(170)는 통신 단말기(100)의 동작에 필요한 각종 데이터 및 애플리케이션을 저장하고 있고, 더 나아가 통신 단말기(100)의 동작 중 새로 발생하거나 외부로부터 수신되는 정보를 저장하는 기능을 수행한다.First, the storage unit 170 stores various data and applications required for the operation of the communication terminal 100, and further performs a function of storing information newly generated or received from the outside during the operation of the communication terminal 100. do.

촬영 카메라(110)는 외부의 피사체를 촬영하는 기능을 수행하는 것으로서, 예를 들어 렌즈와 CCD(Charge Coupled Device)를 포함하여 구성될 수 있는데, 이러한 촬영 카메라(110)의 구조 그 자체는 공지된 기술에 해당하므로 보다 상세한 설명을 생략한다.The photographing camera 110 performs a function of photographing an external subject, and may include, for example, a lens and a charge coupled device (CCD), and the structure of the photographing camera 110 itself is known. Since it corresponds to the technology, a more detailed description will be omitted.

특히 촬영 카메라(110)는 후술하는 바와 같이 소정의 AR(Augmented Reality) 마커를 촬영할 수 있고, 또한 증강 현실을 위한 현실의 세계를 지속적으로 촬영할 수 있다.In particular, the photographing camera 110 may photograph a predetermined AR (Augmented Reality) marker as described later, and may continuously photograph the real world for augmented reality.

추정부(120)는 촬영 카메라(110)에 의해 촬영되는 AR(Augmented Reality) 마커의 촬영 이미지를 기초로 카메라의 초기 위치와 초기 자세를 추정하는 기능을 수행한다.The estimating unit 120 performs a function of estimating an initial position and an initial posture of the camera based on a photographed image of an Augmented Reality (AR) marker photographed by the photographing camera 110.

AR 마커의 일 예는 도 3에 도시된 바와 같다.An example of an AR marker is as shown in FIG. 3.

도 3(a)는 이러한 AR 마커의 일 예이고, 도 3(b)는 이러한 AR 마커를 흰색과 검은색으로 구분하여 인식하는 과정을 나타낸 예이다.3(a) is an example of such an AR marker, and FIG. 3(b) is an example showing a process of recognizing such an AR marker by dividing it into white and black.

각 AR 마커의 형태나, 그 위치에 대한 정보인 AR 마커 정보가 저장부(170)에 구비되어 있는 경우, 추정부(120)는 기 구비된 AR 마커 정보와 촬영 카메라(110)에 의해 촬영된 AR 마커의 촬영 이미지를 비교하여 카메라의 초기 위치와 초기 자세를 추정할 수 있다.When AR marker information, which is information about the shape or location of each AR marker, is provided in the storage unit 170, the estimating unit 120 includes previously provided AR marker information and photographed by the photographing camera 110. The initial position and initial posture of the camera can be estimated by comparing the captured images of the AR marker.

구체적으로 설명하면, 우선, 추정부(120)는 촬영된 AR 마커의 촬영 이미지로부터 마커 식별자를 추출할 수 있다.Specifically, first, the estimating unit 120 may extract a marker identifier from a photographed image of a photographed AR marker.

이는 마치 바코드를 인식하여 바코드에 포함된 정보를 추출하는 과정에 대응될 수 있다.This may correspond to a process of extracting information included in the barcode by recognizing the barcode.

이어서 추정부(120)는 그 추출된 마커 식별자에 대응되는 위치 정보를 기 구비된 AR 마커 정보로부터 추출한다.Subsequently, the estimating unit 120 extracts position information corresponding to the extracted marker identifier from the already provided AR marker information.

예를 들어 A기 구비된 AR 마커 정보에 각 마커 식별자와 위치 정보가 매칭되어 있는 경우, 추정부(120)는 해당 AR 마커 정보를 이용하여 특정 마커 식별자에 매칭된 위치 정보를 확인할 수 있는 것이다.For example, when each marker identifier and location information are matched to the AR marker information provided with the A device, the estimating unit 120 may check the location information matched to the specific marker identifier by using the corresponding AR marker information.

또한 추정부(120)는 AR 마커 정보에 포함된 해당 AR 마커의 형태 정보와 촬영된 AR 마커의 촬영 이미지를 비교하여 카메라의 초기 위치와 초기 자세를 추정할 수 있다. 이때 앞서 확인한 AR 마커의 위치 정보가 이용될 수 있음은 물론이다.In addition, the estimating unit 120 may estimate the initial position and initial posture of the camera by comparing the shape information of the corresponding AR marker included in the AR marker information with the captured image of the captured AR marker. In this case, it goes without saying that the location information of the AR marker, which was previously identified, may be used.

예를 들어 기 저장되어 있던 AR 마커의 형태 정보와 실제 촬영된 AR 마커의 촬영 이미지를 비교하면 AR 마커까지의 거리와 방향, 촬영 카메라(110)의 기울기를 알 수 있는 것이다.For example, when the shape information of the previously stored AR marker and the photographed image of the actually photographed AR marker are compared, the distance and direction to the AR marker, and the tilt of the photographing camera 110 can be known.

즉, 촬영된 이미지는 원래 AR 마커의 형태에 비해 거리에 따라 더 작게 촬영될 수 있고, 촬영 카메라(110)의 촬영 각도에 따라 원근법이 적용되어 원래 AR 마커의 형태보다 일부 영역이 비틀어질 수도 있는데, 이를 이용하여 촬영 카메라(110)의 AR 마커에 대한 상대적 위치 및 방향, 기울어진 정도 등을 알 수 있는 것이다.That is, the photographed image may be photographed smaller according to the distance compared to the shape of the original AR marker, and a perspective method may be applied according to the photographing angle of the photographing camera 110 so that some regions may be distorted than the shape of the original AR marker. , Using this, it is possible to know the relative position and direction of the AR marker of the photographing camera 110, and the degree of inclination.

이러한 예를 나타낸 도면이 도 4이다.Fig. 4 is a diagram showing this example.

도 4에는 평면에 놓인 AR 마커를 통신 단말기(100)에 구비된 촬영 카메라(110)가 위쪽에서 아래 방향으로 즉, 아래 사선 방향으로 촬영하는 예가 나타나 있다.In FIG. 4, an example in which an AR marker placed on a plane is photographed by a photographing camera 110 provided in the communication terminal 100 from the top to the bottom, that is, in a downward diagonal direction.

이렇게 촬영 카메라(110)의 상태와 AR 마커와의 상관관계가 확인되면, 앞서 추출된 AR 마커의 위치 정보를 기초로 촬영 카메라(110)의 위치 및 자세가 판단될 수 있는 것이다.When the correlation between the state of the photographing camera 110 and the AR marker is confirmed, the position and posture of the photographing camera 110 may be determined based on the location information of the AR marker extracted previously.

물론 AR 마커의 형태 정보가 미리 저장되어 있지 않더라도 기 저장된 알고리즘에 따른 분석을 통해 촬영 카메라(110)와 촬영된 AR 마커 간의 상관관계가 판단될 수도 있음은 물론이다.Of course, even if the shape information of the AR marker is not previously stored, a correlation between the photographing camera 110 and the photographed AR marker may be determined through analysis according to a previously stored algorithm.

즉, 추정부(120)의 역할은 촬영된 AR 마커 이미지를 이용하여 촬영 카메라(110)의 초기 위치와 초기 자세(이는 통신 단말기(100)의 초기 위치 및 초기 자세를 의미할 수 있음)를 추정하는 기능을 수행하는 것이다.That is, the role of the estimating unit 120 is to estimate the initial position and initial posture of the photographing camera 110 (this may mean the initial position and initial posture of the communication terminal 100) using the captured AR marker image. It is to perform the function that it does.

상술한 마커 식별자에 대응되는 위치 정보는 기 구비된 AMR(200) 맵 상의 위치 정보일 수 있다.The location information corresponding to the above-described marker identifier may be location information on a previously provided AMR 200 map.

즉, 마커 식별자에 대응되는 위치 정보는 GPS 좌표와 같은 절대 좌표가 아니라, 소정의 지도(일 예로 AMR(200) 맵)상에서의 상대적 위치에 해당할 수 있는 것이다.That is, the location information corresponding to the marker identifier is not absolute coordinates such as GPS coordinates, but may correspond to a relative position on a predetermined map (for example, the AMR 200 map).

이를 위해 AMR(200) 맵이 미리 구비되어야 하고, 추정부(120)는 AMR(200) 맵 상의 각 상대적 위치 정보를 판단할 수 있는 기준점을 알고 있어야 한다.For this, the AMR 200 map must be provided in advance, and the estimating unit 120 must know a reference point for determining the relative position information on the AMR 200 map.

AMR(200) 맵과 다양한 AMR(200)이 이동한 경로가 해당 AMR(200)에 도시된 일 예가 도 5에 도시되었다.An example in which the AMR 200 map and the paths to which the various AMRs 200 travel are shown in the corresponding AMR 200 is illustrated in FIG. 5.

AMR 정보 수신부(130)는 서버(300)로부터 AMR(200)의 위치 정보 및/또는 자세 정보를 수신하는 기능을 수행한다.The AMR information receiving unit 130 performs a function of receiving location information and/or posture information of the AMR 200 from the server 300.

앞서 언급한 바와 같이 서버(300)는 AMR(200)로부터 AMR(200)의 위치 정보 및 자세 정보를 수신할 수 있고, 통신 단말기(100)의 요청에 따라 해당 정보들을 제공할 수 있는데, AMR 정보 수신부(130)가 이러한 기능을 수행하는 것이다.As mentioned above, the server 300 may receive the location information and attitude information of the AMR 200 from the AMR 200, and provide the corresponding information according to the request of the communication terminal 100, AMR information The receiving unit 130 performs this function.

움직임 센서(140)는 통신 단말기(100)의 움직임을 감지하는 기능을 수행한다. 통신 단말기(100)에 구비된 움직임 센서(140)는 앞서 AMR(200)에 구비된 움직임 센서(140)와 같이 다양한 종류의 센서들을 포함할 수 있다.The motion sensor 140 performs a function of detecting a motion of the communication terminal 100. The motion sensor 140 provided in the communication terminal 100 may include various types of sensors such as the motion sensor 140 provided in the AMR 200 above.

움직임 센서(150)는 AMR 정보 수신부(130)에 수신된 AMR(200)의 위치 정보 및/또는 자세 정보, 추정부(120)에 의해 추정된 카메라의 초기 위치와 초기 자세 및, 움직임 센서(140)를 통해 획득한 움직임 정보를 기초로 AMR(200)이 카메라 촬영 영역 내에 존재하는지 여부를 판단하는 기능을 수행한다.The motion sensor 150 includes location information and/or posture information of the AMR 200 received by the AMR information receiving unit 130, the initial position and initial posture of the camera estimated by the estimating unit 120, and the motion sensor 140. ) Performs a function of determining whether the AMR 200 exists in the camera photographing area based on the motion information acquired through ).

예를 들어 촬영 카메라(110)의 지면으로부터의 높이, AMR(200) 맵 상의 위치, 촬영 방향을 알게 되고, 또한 AMR(200)의 현재 위치 및 자세를 알고 있다면, 촬영 카메라(110) 렌즈가 향하는 방향을 연장하여 계산함으로써, AMR(200)이 현재 카메라 촬영 영역 내에 존재하는지 여부를 판단할 수 있다. 물론 이 경우 AMR(200)의 크기 등에 대한 정보도 당연히 미리 알고 있거나 또는 서버(300)로부터 수신함을 전제로 한다.For example, if you know the height of the photographing camera 110 from the ground, the position on the AMR 200 map, and the photographing direction, and also know the current position and posture of the AMR 200, the lens of the photographing camera 110 is By extending the direction and calculating, it is possible to determine whether the AMR 200 currently exists in the camera photographing area. Of course, in this case, it is assumed that information on the size of the AMR 200 is also known in advance or received from the server 300.

이러한 과정이 도 6에 도시되었다.This process is illustrated in FIG. 6.

도 6에서 사람의 눈으로부터 뷰포트를 지나는 연장선을 그리게 되면, 먼 거리의 판을 형성할 수 있고, 해당 판 영역 내에 AMR(200)가 존재하는지를 판단할 수 있는 것이다.In FIG. 6, when an extension line passing through the viewport from the human eye is drawn, a distant plate can be formed, and it is possible to determine whether the AMR 200 exists in the plate area.

표시 제어부(160)는 움직임 센서(150)의 판단 결과 카메라 촬영 영역 내에 AMR(200)이 존재하는 경우 해당 AMR(200)에 대응되는 가상 객체를 증강현실 기법으로 표시하는 기능을 수행한다.The display control unit 160 performs a function of displaying a virtual object corresponding to the AMR 200 in an augmented reality technique when the AMR 200 is present in the camera photographing area as a result of the determination of the motion sensor 150.

즉, 현재 촬영 카메라(110)를 통해 촬영되는 현실 세계 촬영 이미지가 표시(미 도시한 디스플레이부에 표시)하고 있는 상태에서 표시 제어부(160)는 카메라 촬영 영역 내에 AMR(200)이 존재한다고 움직임 센서(150)가 판단한 경우 해당 AMR(200)에 대응되는 가상 객체를 증강현실 기법으로 표시(즉, 현실 세계 촬영 영상과 함께 가상 객체를 표시)할 수 있는 것이다.That is, in a state in which a real-world photographed image captured by the current photographing camera 110 is displayed (displayed on a display unit not shown), the display control unit 160 indicates that the AMR 200 is present in the camera photographing area. If it is determined by 150, the virtual object corresponding to the corresponding AMR 200 can be displayed using an augmented reality technique (ie, a virtual object is displayed together with a real-world image).

여기서 AMR(200)에 대응되는 가상 객체는 AMR(200)에 대응되는 기 구비된 3D 이미지일 수 있고, 또는 서버(300)로부터 수신된 AMR(200)에 대응되는 정보를 포함하는 것일 수 있다.Here, the virtual object corresponding to the AMR 200 may be a pre-equipped 3D image corresponding to the AMR 200 or may include information corresponding to the AMR 200 received from the server 300.

예를 들어 서버(300)로부터 해당 AMR(200)의 작업량에 대한 정보가 수신된 경우, 표시 제어부(160)는 증강 현실 기법으로 AMR(200)에 대응되는 가상 객체를 표시할 때 그 주변에 AMR(200)의 작업량을 표시할 수도 있는 것이다.For example, when information on the workload of the AMR 200 is received from the server 300, the display control unit 160 displays the virtual object corresponding to the AMR 200 using an augmented reality technique. It is also possible to display the workload of 200.

이하에서는 도 7을 참조하여 본 발명의 일 실시예에 따른 통신 단말기(100)의 전체적인 제어흐름을 설명한다.Hereinafter, the overall control flow of the communication terminal 100 according to an embodiment of the present invention will be described with reference to FIG. 7.

우선, 통신 단말기(100)는 사용자의 조작에 따라 AR 마커를 촬영하고, 그 촬영한 AR 마커 이미지 분석을 수행한다.First, the communication terminal 100 photographs an AR marker according to a user's manipulation, and analyzes the captured AR marker image.

이러한 이미지 분석을 통해 통신 단말기(100)는 AR 마커의 위치를 확인한다.Through this image analysis, the communication terminal 100 checks the location of the AR marker.

이때 각 AR 마커에 대한 정보(예를 들어 AR 마커가 부착된 AMR(200) 맵 상의 위치 정보)와 AR 마커로부터 획득한 식별 정보를 비교하여 해당 촬영된 AR 마커에 대응되는 위치 정보를 확인할 수 있다.At this time, information on each AR marker (for example, location information on the AMR 200 map to which the AR marker is attached) and identification information obtained from the AR marker may be compared to determine location information corresponding to the captured AR marker. .

이어서 통신 단말기(100)는 AR 마커에 대한 이미지 분석을 통해 촬영 카메라(110)의 위치 및 자세를 확인한다.Subsequently, the communication terminal 100 checks the position and posture of the photographing camera 110 through image analysis on the AR marker.

앞서 확인한 AR 마커의 위치와 촬영 카메라(110)의 위치 및 자세를 이용하여 통신 단말기(100)는 현재 촬영 카메라(110)(즉, 통신 단말기(100))의 위치 및 자세를 추정할 수 있다.The communication terminal 100 may estimate the location and posture of the current capturing camera 110 (that is, the communication terminal 100) by using the position of the AR marker and the position and posture of the photographing camera 110 as identified above.

이후, 통신 단말기(100)는 기 구비된 움직임 센서(140)에 의해 통신 단말기(100)의 위치나 자세를 지속적으로 추적할 수 있다.Thereafter, the communication terminal 100 may continuously track the position or posture of the communication terminal 100 by the motion sensor 140 already provided.

한편, 통신 단말기(100)는 AR 마커에 대응되는 AMR 정보를 서버(300)에 요청하여 수신한다.Meanwhile, the communication terminal 100 requests and receives AMR information corresponding to the AR marker from the server 300.

여기서 서버(300)로부터 수신하는 AMR 정보에는 AMR(200)의 위치 정보와 상태 정보 등이 포함될 수 있다.Here, the AMR information received from the server 300 may include location information and status information of the AMR 200.

이어서 통신 단말기(100)는 앞서 설명한 통신 단말기(100)의 위치 및 자세와 서버(300)로부터 수신한 AMR(200)의 위치 정보를 기초로 촬영 카메라(110)의 촬영 영역에 AMR(200)이 들어가 있는지를 판단한다.Subsequently, the communication terminal 100 includes the AMR 200 in the photographing area of the photographing camera 110 based on the position and posture of the communication terminal 100 and the position information of the AMR 200 received from the server 300. Determine whether it is in.

판단 결과 AMR(200)이 통신 단말기(100)의 촬영 영역에 존재하는 경우 AMR(200)에 대응되는 가상 객체를 증강현실 기법으로 표시한다.As a result of the determination, when the AMR 200 exists in the photographing area of the communication terminal 100, a virtual object corresponding to the AMR 200 is displayed using an augmented reality technique.

예를 들어 AMR(200)의 형태와 유사하게 형성된 가상의 3D 객체를 디스플레이하고, 더 나아가 AMR(200)의 현재 작업 진행 상황을 표시할 수 있다.For example, a virtual 3D object formed similar to the shape of the AMR 200 may be displayed, and further, the current work progress of the AMR 200 may be displayed.

한편, 상술한 각 실시예를 수행하는 과정은 소정의 기록 매체(예를 들어 컴퓨터로 판독 가능한)에 저장된 프로그램 또는 애플리케이션에 의해 이루어질 수 있음은 물론이다. 여기서 기록 매체는 RAM(Random Access Memory)과 같은 전자적 기록 매체, 하드 디스크와 같은 자기적 기록 매체, CD(Compact Disk)와 같은 광학적 기록 매체 등을 모두 포함한다.Meanwhile, it goes without saying that the process of performing each of the above-described embodiments may be performed by a program or application stored in a predetermined recording medium (eg, computer-readable). Here, the recording medium includes all of an electronic recording medium such as a random access memory (RAM), a magnetic recording medium such as a hard disk, and an optical recording medium such as a compact disk (CD).

이때, 기록 매체에 저장된 프로그램은 컴퓨터나 스마트폰 등과 같은 하드웨어 상에서 실행되어 상술한 각 실시예를 수행할 수 있다. 특히, 상술한 본 발명에 따른 통신 단말기(100)의 기능 블록 중 적어도 어느 하나는 이러한 프로그램 또는 애플리케이션에 의해 구현될 수 있다.At this time, the program stored in the recording medium may be executed on hardware such as a computer or a smart phone to perform each of the above-described embodiments. In particular, at least one of the functional blocks of the communication terminal 100 according to the present invention described above may be implemented by such a program or application.

또한, 본 발명은 상기한 특정 실시예에 한정되는 것이 아니라 본 발명의 요지를 벗어나지 않는 범위 내에서 여러 가지로 변형 및 수정하여 실시할 수 있는 것이다. 이러한 변형 및 수정이 첨부되는 특허청구범위에 속한다면 본 발명에 포함된다는 것은 자명할 것이다. In addition, the present invention is not limited to the specific embodiments described above, but can be implemented by various modifications and modifications without departing from the gist of the present invention. It will be apparent that such modifications and modifications are included in the present invention if they fall within the appended claims.

100 : 통신 단말기 200 : AMR
300 : 서버 110 : 촬영 카메라
120 : 추정부 130 : AMR 정보 수신부
140 : 움직임 센서 150 : 판단부
160 : 표시 제어부 170 : 저장부
100: communication terminal 200: AMR
300: server 110: shooting camera
120: estimation unit 130: AMR information receiving unit
140: motion sensor 150: determination unit
160: display control unit 170: storage unit

Claims (14)

AR 서비스를 제공하는 통신 단말기가 수행하는 제어방법에 있어서,
(a) 구비된 촬영 카메라를 이용하여 AR(Augmented Reality) 마커를 촬영하는 단계와;
(b) 상기 촬영된 AR 마커의 촬영 이미지를 기초로 카메라의 초기 위치와 초기 자세를 추정하는 단계와;
(c) 서버로부터 AMR(Autonomous Mobile Robot)의 위치 정보를 수신하는 단계와;
(d) 상기 (c) 단계에서 수신된 상기 AMR의 위치 정보, 상기 (b) 단계에서 추정된 카메라의 초기 위치와 초기 자세 및, 기 구비된 움직임 센서를 통해 자체적으로 획득한 자신의 움직임 정보를 기초로 상기 AMR이 카메라 촬영 영역 내에 존재하는지 여부를 판단하는 단계와;
(e) 상기 (d) 단계의 판단 결과 카메라 촬영 영역 내에 상기 AMR이 존재하는 경우 해당 AMR에 대응되는 가상 객체를 증강현실 기법으로 표시하는 단계를 포함하는 것을 특징으로 하는 AMR 공간 위치 정보를 활용하여 AR 서비스를 제공하는 통신 단말기의 제어방법.
In a control method performed by a communication terminal providing an AR service,
(a) photographing an Augmented Reality (AR) marker using the provided photographing camera;
(b) estimating the initial position and initial posture of the camera based on the captured image of the captured AR marker;
(c) receiving location information of AMR (Autonomous Mobile Robot) from the server;
(d) the position information of the AMR received in step (c), the initial position and initial posture of the camera estimated in step (b), and the own motion information obtained by itself through a previously equipped motion sensor. Determining whether the AMR exists in a camera photographing area based on the present invention;
(e) If the AMR is present in the camera photographing area as a result of the determination in step (d), using the AMR spatial location information, characterized in that it comprises the step of displaying a virtual object corresponding to the AMR using an augmented reality technique. A control method of a communication terminal providing AR service.
제1항에 있어서,
상기 (b) 단계에서는, 기 구비된 AR 마커 정보와 상기 촬영된 AR 마커의 촬영 이미지를 비교하여 카메라의 초기 위치와 초기 자세를 추정하는 것을 특징으로 하는 AMR 공간 위치 정보를 활용하여 AR 서비스를 제공하는 통신 단말기의 제어방법.
The method of claim 1,
In the step (b), the AR service is provided using AMR spatial location information, characterized in that the initial position and initial posture of the camera are estimated by comparing the previously provided AR marker information with the captured image of the captured AR marker. The control method of the communication terminal.
제2항에 있어서,
상기 (b) 단계에서는, 상기 촬영된 AR 마커의 촬영 이미지로부터 마커 식별자를 추출하고, 그 추출된 마커 식별자에 대응되는 위치 정보를 기 구비된 AR 마커 정보로부터 추출하고, AR 마커 정보에 포함된 해당 AR 마커의 형태 정보와 상기 촬영된 AR 마커의 촬영 이미지를 비교하여 카메라의 초기 위치와 초기 자세를 추정하는 것을 특징으로 하는 AMR 공간 위치 정보를 활용하여 AR 서비스를 제공하는 통신 단말기의 제어방법.
The method of claim 2,
In the step (b), a marker identifier is extracted from the photographed image of the captured AR marker, location information corresponding to the extracted marker identifier is extracted from the already provided AR marker information, and the corresponding information included in the AR marker information A control method of a communication terminal providing an AR service using AMR spatial location information, characterized in that the initial position and initial posture of the camera are estimated by comparing shape information of the AR marker with the captured image of the captured AR marker.
제3항에 있어서,
상기 마커 식별자에 대응되는 위치 정보는 기 구비된 AMR 맵 상의 위치 정보인 것을 특징으로 하는 AMR 공간 위치 정보를 활용하여 AR 서비스를 제공하는 통신 단말기의 제어방법.
The method of claim 3,
The location information corresponding to the marker identifier is location information on an already provided AMR map. A control method of a communication terminal providing an AR service using AMR spatial location information.
제4항에 있어서,
상기 (e) 단계에서의 상기 AMR에 대응되는 가상 객체는 상기 AMR에 대응되는 기 구비된 3D 이미지 또는 상기 서버로부터 수신된 상기 AMR에 대응되는 정보를 포함하는 것을 특징으로 하는 AMR 공간 위치 정보를 활용하여 AR 서비스를 제공하는 통신 단말기의 제어방법.
The method of claim 4,
The virtual object corresponding to the AMR in step (e) utilizes AMR spatial location information, characterized in that it includes a 3D image corresponding to the AMR or information corresponding to the AMR received from the server. Thus, a control method of a communication terminal providing an AR service.
제1항에 있어서,
상기 (c) 단계에서는 상기 서버로부터 AMR(Autonomous Mobile Robot)의 위치 정보 및 자세 정보를 수신하고,
상기 (d) 단계에서는, 상기 (c) 단계에서 수신된 상기 AMR의 위치 정보 및 자세 정보, 상기 (b) 단계에서 추정된 카메라의 초기 위치와 초기 자세 및, 기 구비된 움직임 센서를 통해 획득한 움직임 정보를 기초로 상기 AMR이 카메라 촬영 영역 내에 존재하는지 여부를 판단하는 것을 AMR 공간 위치 정보를 활용하여 AR 서비스를 제공하는 통신 단말기의 제어방법.
The method of claim 1,
In the step (c), location information and posture information of AMR (Autonomous Mobile Robot) are received from the server,
In step (d), the position information and posture information of the AMR received in step (c), the initial position and initial posture of the camera estimated in step (b), and acquired through a motion sensor A control method of a communication terminal that provides an AR service using AMR spatial location information to determine whether the AMR exists in a camera photographing area based on motion information.
제1항 내지 제6항 중 어느 한 항의 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터 판독 가능 기록 매체.A computer-readable recording medium storing a program for executing the method of any one of claims 1 to 6. 하드웨어와 결합되어 제1항 내지 제6항 중 어느 한 항의 방법을 실행시키기 위하여 컴퓨터 판독 가능 기록 매체에 저장된 응용 프로그램.An application program stored in a computer-readable recording medium to execute the method of claim 1 in combination with hardware. 촬영 카메라와;
상기 촬영 카메라에 의해 촬영되는 AR(Augmented Reality) 마커의 촬영 이미지를 기초로 카메라의 초기 위치와 초기 자세를 추정하는 추정부와;
서버로부터 AMR(Autonomous Mobile Robot)의 위치 정보를 수신하는 AMR 정보 수신부와;
움직임을 감지하여 움직임 정보를 생성하는 움직임 센서와;
상기 AMR 정보 수신부에 수신된 상기 AMR의 위치 정보, 상기 추정부에 의해 추정된 카메라의 초기 위치와 초기 자세 및, 상기 움직임 센서를 통해 획득한 움직임 정보를 기초로 상기 AMR이 카메라 촬영 영역 내에 존재하는지 여부를 판단하는 판단부와;
상기 판단부의 판단 결과 카메라 촬영 영역 내에 상기 AMR이 존재하는 경우 해당 AMR에 대응되는 가상 객체를 증강현실 기법으로 표시하는 표시 제어부를 포함하는 것을 특징으로 하는 AMR 공간 위치 정보를 활용하여 AR 서비스를 제공하는 통신 단말기.
A shooting camera;
An estimating unit for estimating an initial position and an initial posture of the camera based on a photographed image of an Augmented Reality (AR) marker photographed by the photographing camera;
An AMR information receiver for receiving location information of an AMR (Autonomous Mobile Robot) from the server;
A motion sensor that detects motion and generates motion information;
Based on the location information of the AMR received by the AMR information receiving unit, the initial position and initial posture of the camera estimated by the estimating unit, and whether the AMR is present in the camera photographing area based on the motion information obtained through the motion sensor A determination unit that determines whether or not;
Providing AR service using AMR spatial location information, characterized in that it comprises a display control unit that displays a virtual object corresponding to the AMR using an augmented reality technique when the AMR exists in the camera photographing area as a result of the determination by the determination unit. Communication terminal.
제9항에 있어서,
상기 추정부는 기 구비된 AR 마커 정보와 상기 촬영 카메라에 의해 촬영된 AR 마커의 촬영 이미지를 비교하여 카메라의 초기 위치와 초기 자세를 추정하는 것을 특징으로 하는 AMR 공간 위치 정보를 활용하여 AR 서비스를 제공하는 통신 단말기.
The method of claim 9,
The estimating unit provides an AR service using AMR spatial location information, characterized in that the initial position and initial posture of the camera are estimated by comparing the already provided AR marker information with the captured image of the AR marker captured by the photographing camera. Communication terminal.
제10항에 있어서,
상기 추정부는 상기 촬영된 AR 마커의 촬영 이미지로부터 마커 식별자를 추출하고, 그 추출된 마커 식별자에 대응되는 위치 정보를 기 구비된 AR 마커 정보로부터 추출하고, AR 마커 정보에 포함된 해당 AR 마커의 형태 정보와 상기 촬영된 AR 마커의 촬영 이미지를 비교하여 카메라의 초기 위치와 초기 자세를 추정하는 것을 특징으로 하는 AMR 공간 위치 정보를 활용하여 AR 서비스를 제공하는 통신 단말기.
The method of claim 10,
The estimating unit extracts a marker identifier from the photographed image of the captured AR marker, extracts location information corresponding to the extracted marker identifier from already provided AR marker information, and the shape of the corresponding AR marker included in the AR marker information A communication terminal providing an AR service using AMR spatial location information, characterized in that the initial position and initial posture of the camera are estimated by comparing the information with the captured image of the captured AR marker.
제11항에 있어서,
상기 마커 식별자에 대응되는 위치 정보는 기 구비된 AMR 맵 상의 위치 정보인 것을 특징으로 하는 AMR 공간 위치 정보를 활용하여 AR 서비스를 제공하는 통신 단말기.
The method of claim 11,
The location information corresponding to the marker identifier is location information on an already provided AMR map. A communication terminal that provides an AR service using AMR spatial location information.
제12항에 있어서,
상기 AMR에 대응되는 가상 객체는 상기 AMR에 대응되는 기 구비된 3D 이미지 또는 상기 서버로부터 수신된 상기 AMR에 대응되는 정보를 포함하는 것을 특징으로 하는 AMR 공간 위치 정보를 활용하여 AR 서비스를 제공하는 통신 단말기.
The method of claim 12,
The virtual object corresponding to the AMR includes a 3D image corresponding to the AMR or information corresponding to the AMR received from the server, and provides AR service using AMR spatial location information. terminal.
제9항에 있어서,
상기 AMR 정보 수신부는 상기 서버로부터 AMR(Autonomous Mobile Robot)의 위치 정보 및 자세 정보를 수신하고,
상기 판단부는 상기 AMR 정보 수신부에 수신된 상기 AMR의 위치 정보 및 자세 정보, 상기 추정부에서 추정된 카메라의 초기 위치와 초기 자세 및, 기 구비된 움직임 센서를 통해 획득한 움직임 정보를 기초로 상기 AMR이 카메라 촬영 영역 내에 존재하는지 여부를 판단하는 것을 AMR 공간 위치 정보를 활용하여 AR 서비스를 제공하는 통신 단말기.
The method of claim 9,
The AMR information receiving unit receives location information and posture information of AMR (Autonomous Mobile Robot) from the server,
The determination unit is based on the position information and posture information of the AMR received by the AMR information receiving unit, the initial position and initial posture of the camera estimated by the estimating unit, and the motion information obtained through a previously equipped motion sensor. A communication terminal that provides an AR service by using AMR spatial location information to determine whether the camera exists within the shooting area.
KR1020190161014A 2019-12-05 2019-12-05 Communication apparatus providing augmented reality service using amr space position information, and control method thereof KR102159721B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190161014A KR102159721B1 (en) 2019-12-05 2019-12-05 Communication apparatus providing augmented reality service using amr space position information, and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190161014A KR102159721B1 (en) 2019-12-05 2019-12-05 Communication apparatus providing augmented reality service using amr space position information, and control method thereof

Publications (1)

Publication Number Publication Date
KR102159721B1 true KR102159721B1 (en) 2020-09-24

Family

ID=72706464

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190161014A KR102159721B1 (en) 2019-12-05 2019-12-05 Communication apparatus providing augmented reality service using amr space position information, and control method thereof

Country Status (1)

Country Link
KR (1) KR102159721B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116155965A (en) * 2023-04-21 2023-05-23 天津洪荒科技有限公司 Multi-stage control method of omnidirectional AMR

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR200389099Y1 (en) 2005-04-19 2005-07-07 김대섭 Simulation apparatus of automatic guided vehicle system
KR20100138193A (en) * 2009-06-24 2010-12-31 넥스트키 주식회사 The augmented reality content providing system and equipment for the user interaction based on touchscreen
KR20110104686A (en) * 2010-03-17 2011-09-23 에스케이텔레콤 주식회사 Marker size based interaction method and augmented reality system for realizing the same
KR20110104676A (en) * 2010-03-17 2011-09-23 에스케이텔레콤 주식회사 Augmented reality system and method for realizing interaction between virtual object using the plural marker
KR20140096672A (en) * 2013-01-28 2014-08-06 이준돈 Method for embodiment of augmented reality using marker and recording medium storing a program thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR200389099Y1 (en) 2005-04-19 2005-07-07 김대섭 Simulation apparatus of automatic guided vehicle system
KR20100138193A (en) * 2009-06-24 2010-12-31 넥스트키 주식회사 The augmented reality content providing system and equipment for the user interaction based on touchscreen
KR20110104686A (en) * 2010-03-17 2011-09-23 에스케이텔레콤 주식회사 Marker size based interaction method and augmented reality system for realizing the same
KR20110104676A (en) * 2010-03-17 2011-09-23 에스케이텔레콤 주식회사 Augmented reality system and method for realizing interaction between virtual object using the plural marker
KR20140096672A (en) * 2013-01-28 2014-08-06 이준돈 Method for embodiment of augmented reality using marker and recording medium storing a program thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116155965A (en) * 2023-04-21 2023-05-23 天津洪荒科技有限公司 Multi-stage control method of omnidirectional AMR
CN116155965B (en) * 2023-04-21 2023-06-30 天津洪荒科技有限公司 Multi-stage control method of omnidirectional AMR

Similar Documents

Publication Publication Date Title
CN105637321B (en) The method and mobile unit of absolute position for acquiring mobile unit
JP7341652B2 (en) Information processing device, information processing method, program, and system
JP7082545B2 (en) Information processing methods, information processing equipment and programs
EP3627446B1 (en) System, method and medium for generating a geometric model
JP5473304B2 (en) Remote location image display device, remote control device, vehicle control device, remote control system, remote control method, remote control program, vehicle control program, remote location image display method, remote location image display program
CN105185134B (en) Electronic device, the control method of electronic device and computer readable recording medium storing program for performing
CN112161618B (en) Storage robot positioning and map construction method, robot and storage medium
CN110293965B (en) Parking method and control device, vehicle-mounted device and computer readable medium
US20220012509A1 (en) Overhead-view image generation device, overhead-view image generation system, and automatic parking device
KR20210087271A (en) Apparatus and method for displaying navigation information of three dimention augmented reality
CN111183428A (en) Identifying assigned passengers of an autonomous vehicle
US11656090B2 (en) Method and system for generating navigation data for a geographical location
KR102500634B1 (en) Guide robot and operating method thereof
WO2013049597A1 (en) Method and system for three dimensional mapping of an environment
KR102604298B1 (en) Apparatus and method for estimating location of landmark and computer recordable medium storing computer program thereof
CN111837136A (en) Autonomous navigation based on local sensing and associated systems and methods
KR102190743B1 (en) AUGMENTED REALITY SERVICE PROVIDING APPARATUS INTERACTING WITH ROBOT and METHOD OF THEREOF
JP2023533629A (en) Position recognition method and position recognition system for moving means
KR20200128343A (en) How to call a vehicle with your current location
KR102159721B1 (en) Communication apparatus providing augmented reality service using amr space position information, and control method thereof
KR102163462B1 (en) Path-finding Robot and Mapping Method Using It
Deigmoeller et al. Stereo visual odometry without temporal filtering
KR102275083B1 (en) Robotic systems and a returning method of robot for automatic charging
US20220300768A1 (en) Evaluation process for a multi-task network
JP7337617B2 (en) Estimation device, estimation method and program

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
N231 Notification of change of applicant
E701 Decision to grant or registration of patent right
GRNT Written decision to grant