KR102268798B1 - System and method for providing augmented reality user interface - Google Patents

System and method for providing augmented reality user interface Download PDF

Info

Publication number
KR102268798B1
KR102268798B1 KR1020170183533A KR20170183533A KR102268798B1 KR 102268798 B1 KR102268798 B1 KR 102268798B1 KR 1020170183533 A KR1020170183533 A KR 1020170183533A KR 20170183533 A KR20170183533 A KR 20170183533A KR 102268798 B1 KR102268798 B1 KR 102268798B1
Authority
KR
South Korea
Prior art keywords
information
augmented reality
user terminal
docking station
target object
Prior art date
Application number
KR1020170183533A
Other languages
Korean (ko)
Other versions
KR20190081178A (en
Inventor
남상원
Original Assignee
엘에스일렉트릭(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘에스일렉트릭(주) filed Critical 엘에스일렉트릭(주)
Priority to KR1020170183533A priority Critical patent/KR102268798B1/en
Publication of KR20190081178A publication Critical patent/KR20190081178A/en
Application granted granted Critical
Publication of KR102268798B1 publication Critical patent/KR102268798B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • G06K9/00671
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Architecture (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 증강 현실 제공 시스템 및 방법에 관한 것이다. 상기 증강 현실 제공 방법은, 도킹 스테이션과 사용자 단말기의 결합을 감지하는 단계, 상기 사용자 단말기에 결합된 상기 도킹 스테이션의 ID 정보를 수신하는 단계, 상기 ID 정보를 기초로 데이터베이스에서 상기 도킹 스테이션의 위치 정보를 추출하는 단계, 상기 도킹 스테이션의 각도 정보를 수신하는 단계, 상기 위치 정보와 상기 각도 정보를 기초로 상기 사용자 단말기의 디스플레이부에 표시될 표시 대상 객체를 선정하는 단계, 및 상기 표시 대상 객체에 대한 증강 현실 관련 데이터를 상기 사용자 단말기에 제공하는 단계를 포함한다.The present invention relates to a system and method for providing augmented reality. The augmented reality providing method includes: detecting a combination of a docking station and a user terminal; receiving ID information of the docking station coupled to the user terminal; location information of the docking station in a database based on the ID information extracting, receiving angle information of the docking station, selecting a display target object to be displayed on the display unit of the user terminal based on the location information and the angle information, and for the display target object and providing augmented reality related data to the user terminal.

Description

증강 현실 제공 시스템 및 방법{System and method for providing augmented reality user interface}System and method for providing augmented reality user interface

본 발명은 증강 현실 제공 시스템 및 방법에 관한 것이다. 구체적으로, 도킹 스테이션에 결합된 사용자 단말기에 증강 현실 정보를 제공하는 증강 현실 제공 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for providing augmented reality. Specifically, it relates to an augmented reality providing system and method for providing augmented reality information to a user terminal coupled to a docking station.

증강 현실(augmented reality, AR)이란 실제 환경에 가상 사물이나 정보를 합성하여 원래의 환경에 존재하는 사물처럼 보이도록 하는 컴퓨터 그래픽 기법을 말한다.Augmented reality (AR) refers to a computer graphics technique in which a virtual object or information is synthesized in a real environment to appear as an object existing in the original environment.

증강 현실은 가상의 공간과 사물만을 대상으로 하는 기존의 가상 현실과 달리, 현실 세계의 기반 위에 가상의 사물을 합성하여 현실 세계만으로는 얻기 어려운 부가적인 정보들을 보강해 제공할 수 있는 특징을 가진다. 이러한 특징 때문에 증강 현실은 단순히 게임과 같은 분야에만 한정된 적용이 가능한 기존 가상 현실과 달리 다양한 현실 환경에 응용이 가능하다. 특히, 증강 현실은 유비쿼터스 환경에 적합한 차세대 디스플레이 기술로 각광받고 있다.Unlike conventional virtual reality, which targets only virtual space and objects, augmented reality has a feature of providing additional information that is difficult to obtain only in the real world by synthesizing virtual objects on the basis of the real world. Because of these characteristics, augmented reality can be applied to a variety of real environments, unlike existing virtual reality, which can be applied only to fields such as games. In particular, augmented reality is spotlighted as a next-generation display technology suitable for a ubiquitous environment.

증강 현실 기술에 대한 연구가 시작된 이래 다양한 분야에서 증강 현실 기술을 활용하려는 연구가 이어져 왔으며, 최근에는 스마트폰의 확산과 더불어 증강 현실 기술이 위치 기반 서비스에 많이 활용되고 있다.Since research on augmented reality technology has been started, research to utilize augmented reality technology has continued in various fields. Recently, with the spread of smartphones, augmented reality technology has been widely used for location-based services.

일반적으로, 증강 현실 기술은 현재 촬영되고 있는 기기에 대한 정보를 메뉴 형태로 프리뷰 화면 상에 표시한다. 이때 프리뷰 화면은 촬영되고 있는 기기의 상태 정보를 2D 또는 3D 형태로 표시할 수 있다.In general, augmented reality technology displays information about a device currently being photographed on a preview screen in the form of a menu. In this case, the preview screen may display status information of the device being photographed in 2D or 3D form.

다만, 종래의 증강 현실 제공 장치의 경우, 사용자가 사용자 단말기를 손에 들고 촬영을 해야 하므로, 사용자의 손떨림에 의해 화면 상의 증강 현실 이미지가 계속해서 흔들리게 되어 어지러움을 유발하는 문제점이 있었다. However, in the case of the conventional augmented reality providing device, since the user has to hold the user terminal in his hand to take a picture, the augmented reality image on the screen continues to shake due to the user's hand shaking, thereby causing dizziness.

또한, 증강 현실 이미지를 표시하기 위해, 사용자 단말기의 위치 변화를 측정하고, 촬영되는 영상 속에서 객체를 계속해서 인식해야 하는 바, 동작에 필요한 연산량이 많아져 증강 현실의 구현 속도가 느려지는 문제점이 있었다.In addition, in order to display the augmented reality image, it is necessary to measure the change in the position of the user terminal and continuously recognize the object in the captured image, so there is a problem in that the amount of computation required for operation increases, which slows down the implementation of augmented reality. there was.

본 발명은 특정 위치에 설치된 도킹 스테이션에 사용자 단말기를 결합함으로써, 특정 위치에서 바라본 시야 영역에 대한 증강 현실 인터페이스를 사용자 단말기에 표시할 수 있는 증강 현실 제공 시스템 및 방법을 제공하는 것을 목적으로 한다.An object of the present invention is to provide an augmented reality providing system and method capable of displaying an augmented reality interface for a viewing area viewed from a specific location on the user terminal by coupling the user terminal to a docking station installed at a specific location.

또한, 본 발명은 도킹 스테이션의 위치 정보와 각도 정보를 이용하여, 사용자 단말기의 카메라 화각 내에 위치하는 대상 객체를 선정하고, 대상 객체에 대한 증강 현실 인터페이스를 사용자 단말기에 표시하는 증강 현실 제공 시스템 및 방법을 제공하는 것을 목적으로 한다.In addition, the present invention provides an augmented reality providing system and method for selecting a target object located within a camera field of view of a user terminal by using location information and angle information of a docking station, and displaying an augmented reality interface for the target object on the user terminal aims to provide

본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects and advantages of the present invention not mentioned may be understood by the following description, and will be more clearly understood by the examples of the present invention. Moreover, it will be readily apparent that the objects and advantages of the present invention may be realized by the means and combinations thereof indicated in the claims.

상기의 목적을 달성하기 위한 본 발명의 일 실시예에 따른 증강 현실 제공 방법은, 도킹 스테이션과 사용자 단말기의 결합을 감지하는 단계, 상기 사용자 단말기에 결합된 상기 도킹 스테이션의 ID 정보를 수신하는 단계, 상기 ID 정보를 기초로 데이터베이스에서 상기 도킹 스테이션의 위치 정보를 추출하는 단계, 상기 도킹 스테이션의 각도 정보를 수신하는 단계, 상기 위치 정보와 상기 각도 정보를 기초로 상기 사용자 단말기의 디스플레이부에 표시될 표시 대상 객체를 선정하는 단계, 및 상기 표시 대상 객체에 대한 증강 현실 관련 데이터를 상기 사용자 단말기에 제공하는 단계를 포함한다.Augmented reality providing method according to an embodiment of the present invention for achieving the above object, the step of detecting a combination of a docking station and a user terminal, receiving the ID information of the docking station coupled to the user terminal, Extracting the location information of the docking station from a database based on the ID information, receiving the angle information of the docking station, an indication to be displayed on the display unit of the user terminal based on the location information and the angle information selecting a target object; and providing augmented reality related data for the display target object to the user terminal.

또한, 상기 사용자 단말기의 디스플레이부에 표시될 표시 대상 객체를 선정하는 단계는, 상기 도킹 스테이션의 위치 정보를 기초로 상기 도킹 스테이션에 인접한 객체를 선정하는 단계와, 상기 도킹 스테이션의 각도 정보를 기초로, 상기 인접한 객체 중에서 상기 사용자 단말기에 포함된 카메라부의 화각 내에 위치하는 표시 대상 객체를 선정하는 단계를 포함할 수 있다.In addition, the selecting of the display target object to be displayed on the display unit of the user terminal may include selecting an object adjacent to the docking station based on location information of the docking station, and based on angle information of the docking station , selecting a display target object located within an angle of view of a camera unit included in the user terminal from among the adjacent objects.

또한, 상기 사용자 단말기의 디스플레이부에 표시될 표시 대상 객체를 선정하는 단계는, 상기 카메라부의 배율 정보를 수신하고, 상기 배율 정보를 기초로 상기 사용자 단말기에 표시될 표시 대상 객체를 선정하는 것을 더 포함할 수 있다.In addition, the selecting of the display target object to be displayed on the display unit of the user terminal, receiving the magnification information of the camera unit, and further comprising selecting a display target object to be displayed on the user terminal based on the magnification information can do.

또한, 상기 도킹 스테이션의 상기 각도 정보가 변경되는 경우, 변경된 상기 각도 정보를 기초로 상기 사용자 단말기의 디스플레이부에 표시될 표시 대상 객체를 재선정하는 단계와, 재선정된 상기 표시 대상 객체에 대한 증강 현실 정보를 상기 사용자 단말기에 업데이트하는 단계를 더 포함할 수 있다.In addition, when the angle information of the docking station is changed, reselecting a display target object to be displayed on the display unit of the user terminal based on the changed angle information; Augmented reality for the reselected display target object The method may further include updating information to the user terminal.

또한, 상기 각도 정보는, 상기 도킹 스테이션에 결합된 상기 사용자 단말기의 카메라의 앵글, 화각, 및 배율에 대한 정보를 포함할 수 있다.Also, the angle information may include information on an angle, an angle of view, and a magnification of a camera of the user terminal coupled to the docking station.

또한, 상기 위치 정보 및 상기 각도 정보는, X축, Y축 및 Z축으로 이루어진 3차원 좌표 정보로 구성될 수 있다.In addition, the position information and the angle information may be composed of three-dimensional coordinate information consisting of an X-axis, a Y-axis, and a Z-axis.

상기의 목적을 달성하기 위한 본 발명의 다른 실시예에 따른 증강 현실 제공 방법은, 사용자 단말기에 결합된 상기 도킹 스테이션의 ID 정보를 수신하는 단계, 상기 ID 정보를 상기 도킹 스테이션과 연결된 서버에 전송하는 단계, 상기 서버로부터 상기 도킹 스테이션과 관련된 데이터를 수신하여 메모리에 저장하는 단계, 상기 도킹 스테이션의 위치 정보와 각도 정보를 수신하는 단계, 상기 메모리에 저장된 데이터, 상기 위치 정보 및 상기 각도 정보를 기초로 상기 사용자 단말기의 디스플레이부에 표시될 표시 대상 객체를 선정하는 단계, 상기 표시 대상 객체에 대한 증강 현실 인터페이스를 생성하는 단계, 및 상기 촬영된 영상에 상기 증강 현실 인터페이스를 오버랩하여 화면에 표시하는 단계를 포함한다.Augmented reality providing method according to another embodiment of the present invention for achieving the above object, receiving the ID information of the docking station coupled to a user terminal, transmitting the ID information to a server connected to the docking station Step, receiving data related to the docking station from the server and storing it in a memory, receiving location information and angle information of the docking station, based on the data stored in the memory, the location information and the angle information Selecting a display target object to be displayed on the display unit of the user terminal, generating an augmented reality interface for the display target object, and overlapping the augmented reality interface on the captured image and displaying on the screen include

또한, 상기 표시 대상 객체에 대한 증강 현실 인터페이스를 생성하는 단계는, 상기 표시 대상 객체에 대한 상태 정보를 수신하는 단계와, 상기 증강 현실 관련 데이터와 상기 상태 정보를 이용하여 상기 표시 대상 객체의 상태를 표시하는 상기 증강 현실 인터페이스를 생성하는 단계를 포함할 수 있다.In addition, the generating of the augmented reality interface for the display target object includes: receiving state information on the display target object; determining the state of the display target object by using the augmented reality related data and the state information It may include generating the augmented reality interface to display.

또한, 상기 서버로부터 상기 도킹 스테이션와 관련된 데이터를 수신하여 메모리에 저장하는 단계는, 상기 데이터를 상기 도킹 스테이션의 메모리 또는 상기 사용자 단말기의 메모리에 저장하는 것을 포함할 수 있다.In addition, the receiving of the data related to the docking station from the server and storing the data in a memory may include storing the data in a memory of the docking station or a memory of the user terminal.

상기의 목적을 달성하기 위한 본 발명의 일 실시예에 따른 증강 현실 제공 시스템은, 증강 현실 인터페이스를 디스플레이부에 표시하는 사용자 단말기, 상기 사용자 단말기가 결합되는 도킹 스테이션, 및 상기 사용자 단말기와 결합된 상기 도킹 스테이션의 위치 정보와 각도 정보를 기초로 상기 사용자 단말기에 표시될 표시 대상 객체를 선정하고, 상기 표시 대상 객체에 대한 증강 현실 관련 데이터를 상기 사용자 단말기에 제공하는 서버를 포함한다.Augmented reality providing system according to an embodiment of the present invention for achieving the above object, a user terminal for displaying an augmented reality interface on a display unit, a docking station to which the user terminal is coupled, and the user terminal coupled to the and a server that selects a display target object to be displayed on the user terminal based on location information and angle information of the docking station, and provides augmented reality related data for the display target object to the user terminal.

또한, 상기 도킹 스테이션은, 결합 테이블과, 상기 결합 테이블의 각도를 조절하는 각도 조절부와, 상기 각도 조절부의 위치를 측정하는 각도 센서부와, ID정보를 저장하는 메모리부를 포함할 수 있다.In addition, the docking station may include a coupling table, an angle adjusting unit for adjusting the angle of the coupling table, an angle sensor measuring the position of the angle adjusting unit, and a memory unit for storing ID information.

또한, 상기 서버는, 상기 도킹 스테이션의 ID정보를 수신하고, 수신된 상기 ID정보를 기초로 상기 도킹 스테이션의 상기 위치 정보를 계산할 수 있다.Also, the server may receive the ID information of the docking station, and calculate the location information of the docking station based on the received ID information.

또한, 상기 서버는, 상기 위치 정보를 기초로 상기 도킹 스테이션에 인접한 객체를 선정하고, 상기 각도 정보를 기초로 상기 인접한 객체 중에서 상기 사용자 단말기에 포함된 카메라부의 화각 내에 위치하는 표시 대상 객체를 선정할 수 있다.In addition, the server selects an object adjacent to the docking station based on the location information, and selects a display target object located within an angle of view of a camera unit included in the user terminal from among the adjacent objects based on the angle information. can

또한, 상기 서버는, 상기 사용자 단말기에 포함된 카메라부의 배율 정보를 수신하고, 상기 위치 정보, 상기 각도 정보 및 상기 배율 정보를 기초로 상기 사용자 단말기에 표시될 표시 대상 객체를 선정할 수 있다.Also, the server may receive magnification information of a camera unit included in the user terminal, and select a display target object to be displayed on the user terminal based on the location information, the angle information, and the magnification information.

또한, 상기 서버는, 상기 도킹 스테이션의 상기 각도 정보가 변경되는 경우, 변경된 상기 각도 정보를 기초로 상기 사용자 단말기의 디스플레이부에 표시될 표시 대상 객체를 재선정하고, 재선정된 상기 표시 대상 객체에 대한 증강 현실 정보를 상기 사용자 단말기에 업데이트할 수 있다.In addition, when the angle information of the docking station is changed, the server reselects a display target object to be displayed on the display unit of the user terminal based on the changed angle information, Augmented reality information may be updated in the user terminal.

또한, 상기 각도 정보는, 상기 도킹 스테이션에 결합된 상기 사용자 단말기의 카메라의 앵글, 화각, 및 배율에 대한 정보를 포함할 수 있다.Also, the angle information may include information on an angle, an angle of view, and a magnification of a camera of the user terminal coupled to the docking station.

또한, 상기 사용자 단말기는, 상기 서버로부터 수신된 상기 증강 현실 관련 데이터를 기초로 증강 현실 인터페이스를 생성하고, 상기 증강 현실 인터페이스를 디스플레이부에 표시할 수 있다.Also, the user terminal may generate an augmented reality interface based on the augmented reality related data received from the server, and display the augmented reality interface on a display unit.

또한, 상기 사용자 단말기는, 상기 표시 대상 객체에 대한 상태 정보를 수신하고, 상기 증강 현실 관련 데이터와 상기 상태 정보를 이용하여 상기 표시 대상 객체의 상태를 표시하는 상기 증강 현실 인터페이스를 생성하여 디스플레이부에 표시할 수 있다.In addition, the user terminal receives the state information on the display target object, generates the augmented reality interface for displaying the state of the display target object by using the augmented reality related data and the state information, the display unit can be displayed

본 발명의 증강 현실 제공 시스템 및 방법은, 특정 위치에 설치된 도킹 스테이션에 사용자 단말기를 결합함으로써, 흔들림 없는 증강 현실 영상을 사용자에게 제공할 수 있다. 이를 통해, 증강 현실을 이용하면서 사용자가 어지러움을 느끼는 것을 방지할 수 있다. The augmented reality providing system and method of the present invention may provide a shake-free augmented reality image to the user by coupling the user terminal to a docking station installed at a specific location. Through this, it is possible to prevent the user from feeling dizzy while using the augmented reality.

또한, 본 발명의 증강 현실 제공 시스템 및 방법은, 도킹 스테이션의 위치 정보와 각도 정보를 이용하여 사용자 단말기의 카메라 화각 내에 위치하는 대상 객체에 대한 증강 현실 인터페이스를 제공할 수 있다. 즉, 본 발명은 증강 현실에 필요한 객체 인식 과정을 생략함으로써, 증강 현실 구현 속도를 향상시킬 수 있다. 이를 통해, 사용자 단말기는 더 빠르고 부드러운 증강 현실 영상을 사용자에게 제공할 수 있으며, 사용자의 입력에 대한 반응 속도도 증가될 수 있다. In addition, the augmented reality providing system and method of the present invention may provide an augmented reality interface for a target object located within a camera field of view of a user terminal by using position information and angle information of a docking station. That is, the present invention can improve the augmented reality implementation speed by omitting the object recognition process required for augmented reality. Through this, the user terminal may provide a faster and smoother augmented reality image to the user, and the reaction speed to the user's input may be increased.

상술한 효과와 더불어 본 발명의 구체적인 효과는 이하 발명을 실시하기 위한 구체적인 사항을 설명하면서 함께 기술한다. In addition to the above-described effects, the specific effects of the present invention will be described together while describing specific details for carrying out the invention below.

도 1은 본 발명의 몇몇 실시예에 따른 증강 현실 제공 시스템을 나타내는 도면이다.
도 2는 도 1의 사용자 단말기를 설명하기 위한 도면이다.
도 3은 도 1의 사용자 단말기와 도킹 스테이션의 결합 구조를 설명하기 위한 도면이다.
도 4는 도 1의 증강 현실 제공 시스템의 동작 방법을 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 증강 현실 제공 방법을 나타내는 순서도이다.
도 6은 본 발명의 다른 실시예에 따른 증강 현실 제공 방법을 나타내는 순서도이다.
도 7은 본 발명의 또 다른 실시예에 따른 증강 현실 제공 방법을 나타내는 순서도이다.
도 8 및 도 9는 본 발명의 몇몇 실시예에 따른 증강 현실 제공 시스템의 일 예를 설명하기 위한 도면이다.
1 is a diagram illustrating an augmented reality providing system according to some embodiments of the present invention.
FIG. 2 is a diagram for explaining the user terminal of FIG. 1 .
FIG. 3 is a diagram for explaining a coupling structure of the user terminal and the docking station of FIG. 1 .
FIG. 4 is a diagram for explaining an operation method of the augmented reality providing system of FIG. 1 .
5 is a flowchart illustrating a method for providing augmented reality according to an embodiment of the present invention.
6 is a flowchart illustrating a method for providing augmented reality according to another embodiment of the present invention.
7 is a flowchart illustrating a method for providing augmented reality according to another embodiment of the present invention.
8 and 9 are diagrams for explaining an example of an augmented reality providing system according to some embodiments of the present invention.

전술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술되며, 이에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 상세한 설명을 생략한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다. 도면에서 동일한 참조부호는 동일 또는 유사한 구성요소를 가리키는 것으로 사용된다.The above-described objects, features and advantages will be described below in detail with reference to the accompanying drawings, and accordingly, those of ordinary skill in the art to which the present invention pertains will be able to easily implement the technical idea of the present invention. In describing the present invention, if it is determined that a detailed description of a known technology related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description will be omitted. Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings. In the drawings, the same reference numerals are used to indicate the same or similar components.

이하에서, 도 1 내지 도 9를 참조하여 본 발명에 따른 증강 현실 제공 시스템 및 방법에 대해 설명하도록 한다.Hereinafter, an augmented reality providing system and method according to the present invention will be described with reference to FIGS. 1 to 9 .

도 1은 본 발명의 일 실시예에 따른 증강 현실 제공 시스템을 나타내는 도면이다.1 is a diagram illustrating an augmented reality providing system according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 증강 현실 제공 시스템은, 사용자 단말기(100), 도킹 스테이션(200), 서버(300) 및 대상 기기(400)를 포함한다. Referring to FIG. 1 , the augmented reality providing system according to an embodiment of the present invention includes a user terminal 100 , a docking station 200 , a server 300 , and a target device 400 .

사용자 단말기(100)는 증강 현실 표시 장치로써 동작한다. 사용자 단말기(100)는 도킹 스테이션(200)에 결합된다. 사용자 단말기(100)는 도킹 스테이션(200)을 통해 서버(300)로부터 증강 현실 관련 정보를 수신하여 화면에 표시할 수 있다.The user terminal 100 operates as an augmented reality display device. The user terminal 100 is coupled to the docking station 200 . The user terminal 100 may receive augmented reality related information from the server 300 through the docking station 200 and display it on the screen.

사용자 단말기(100)는 태블릿(tablet), 무선 전화기(wireless phone), 모바일 폰(mobile phone), 스마트폰(smart phone), e-북(e-book), PMP(portable multimedia player), 넷북(net-book), PDA (Personal Digital Assistants), 포터블(portable) 컴퓨터 등 정보를 무선 환경에서 송수신할 수 있는 장치가 될 수 있다. 다만, 본 발명이 이에 한정되는 것은 아니다.The user terminal 100 includes a tablet, a wireless phone, a mobile phone, a smart phone, an e-book, a portable multimedia player (PMP), a netbook ( net-book), PDA (Personal Digital Assistants), portable computer, etc. may be a device capable of transmitting and receiving information in a wireless environment. However, the present invention is not limited thereto.

도킹 스테이션(200)는 특정 위치에 고정되어 설치되고, 사용자 단말기(100)와 결합될 수 있다. 도킹 스테이션(200)은 복수 개가 설치될 수 있으며, 각각 고유의 ID 정보가 부여된다. 도킹 스테이션(200)은 무선 또는 유선 통신을 통해 서버(300)와 데이터를 교환할 수 있다. 또한, 도킹 스테이션(200)은 서버(300)로부터 수신한 증강 현실 관련 정보를 사용자 단말기(100)에 전달할 수 있다. The docking station 200 may be fixedly installed at a specific location and coupled to the user terminal 100 . A plurality of docking stations 200 may be installed, and unique ID information is assigned to each. The docking station 200 may exchange data with the server 300 through wireless or wired communication. Also, the docking station 200 may transmit the augmented reality related information received from the server 300 to the user terminal 100 .

서버(300)는 대상 기기(400)에 대한 각종 정보를 저장하는 데이터베이스를 포함한다. 서버(300)는 복수의 도킹 스테이션(200)에 대한 위치 정보와 도킹 스테이션(200)과 인접한 대상 기기(400)에 대한 위치 정보를 저장할 수 있다. 서버(300)는 도킹 스테이션(200)의 ID 정보를 기초로 각각의 도킹 스테이션(200)을 식별할 수 있다. The server 300 includes a database that stores various information about the target device 400 . The server 300 may store location information on the plurality of docking stations 200 and location information on the target device 400 adjacent to the docking station 200 . The server 300 may identify each docking station 200 based on ID information of the docking station 200 .

또한, 서버(300)는 대상 기기(400)에 대한 증강 현실 관련 정보를 저장한다. 만약, 사용자 단말기(100)와 결합된 도킹 스테이션(200)으로부터 ID 정보가 수신되는 경우, 서버(300)는 해당 도킹 스테이션(200)의 인접한 대상 기기(400)에 대한 증강 현실 관련 정보를 해당 도킹 스테이션(200)을 통해 사용자 단말기(100)에 제공할 수 있다. Also, the server 300 stores augmented reality related information on the target device 400 . If ID information is received from the docking station 200 coupled to the user terminal 100 , the server 300 attaches augmented reality related information about the target device 400 adjacent to the docking station 200 to the corresponding docking station. It may be provided to the user terminal 100 through the station 200 .

이때, 서버(300)는 도킹 스테이션(200)의 각도 정보를 고려하여, 사용자 단말기(100)에 표시될 표시 대상 객체를 선정한다. 이어서, 서버(300)는 선정된 표시 대상 객체에 대한 증강 현실 관련 정보를 사용자 단말기(100)에 제공할 수 있다. In this case, the server 300 selects a display target object to be displayed on the user terminal 100 in consideration of angle information of the docking station 200 . Subsequently, the server 300 may provide augmented reality related information on the selected display target object to the user terminal 100 .

이를 통해, 사용자 단말기(100)는 대상 기기(400)를 촬영하고, 촬영된 영상 내에서 대상 기기(400)를 식별하는 과정을 거치지 않고, 사용자 단말기(100)가 결합된 도킹 스테이션(200)에 인접한 대상 기기(400)에 대한 증강 현실 관련 정보를 서버(300)로부터 수신하여 화면에 표시할 수 있다. Through this, the user terminal 100 takes a picture of the target device 400 and does not go through a process of identifying the target device 400 in the captured image, but is attached to the docking station 200 to which the user terminal 100 is coupled. Augmented reality related information on the adjacent target device 400 may be received from the server 300 and displayed on the screen.

여기에서 증강 현실 관련 정보는 증강 현실 정보와 증강 현실 인터페이스를 포함하는 개념이다. 증강 현실 정보는 촬영되는 객체를 모델링 및 렌더링 하는데 이용되는 로데이터(raw data)이다. 증강 현실 정보는 2D 또는 3D 이미지로 모델링 및 렌더링될 수 있으며, 렌더링된 이미지는 증강 현실 인터페이스로 변환되어 사용자 단말기(100)의 화면에 프리뷰 형태로 표시된다.Here, the augmented reality-related information is a concept including augmented reality information and an augmented reality interface. Augmented reality information is raw data used to model and render a photographed object. Augmented reality information may be modeled and rendered as a 2D or 3D image, and the rendered image is converted into an augmented reality interface and displayed in a preview form on the screen of the user terminal 100 .

사용자 단말기(100)는 대상 기기(400)에 대한 증강 현실 정보를 서버(300)로부터 수신하고, 증강 현실 정보를 기초로 증강 현실 인터페이스를 생성하여 화면에 표시한다. The user terminal 100 receives augmented reality information on the target device 400 from the server 300 , generates an augmented reality interface based on the augmented reality information, and displays it on the screen.

추가적으로, 사용자 단말기(100)는 대상 기기(400)에 대한 증강 현실 인터페이스를 직접 서버(300)로부터 수신하고, 이를 화면에 그대로 표시할 수도 있다.Additionally, the user terminal 100 may directly receive the augmented reality interface for the target device 400 from the server 300 and display it on the screen as it is.

대상 기기(400)는 다양한 전자기기가 될 수 있다. 예를 들어, 대상 기기(400)는 자동제어기기나 산업용기기 또는 배전반 등이 될 수 있다. 이때, 대상 기기(400)는 차단기, 계전기, 통신링크장치, 전력량계, 센서부, HMI(Human Machine Interface) 등을 구성요소로 포함할 수 있고, 대상 기기(400)에 포함된 구성요소들의 동작 상태에 따라 대상 기기(400)의 전체적인 동작 상태가 결정될 수 있다. The target device 400 may be various electronic devices. For example, the target device 400 may be an automatic control device, an industrial device, or a switchboard. In this case, the target device 400 may include a circuit breaker, a relay, a communication link device, a watt-hour meter, a sensor unit, a human machine interface (HMI), etc. as components, and the operating state of the components included in the target device 400 . Accordingly, the overall operating state of the target device 400 may be determined.

대상 기기(400)의 동작 상태는 서버(300)에 실시간으로 업데이트되어 저장될 수 있다. 사용자 단말기(100)는 대상 기기(400)에 대한 상태 정보를 증강 현실의 형태로 사용자에게 제공할 수 있다.The operating state of the target device 400 may be updated and stored in the server 300 in real time. The user terminal 100 may provide state information about the target device 400 to the user in the form of augmented reality.

이때, 대상 기기(400)는 원격 검침 시스템(Automatic Meter Reading; 이하, AMR)의 측정 대상이 될 수 있다. 일반적으로, 원격 검침 시스템(AMR)이라 함은 멀리 떨어진 지점의 측정 대상으로부터 측정 결과를 전기적 신호로 변환하여 통신 네트워크를 통해 데이터를 전송하고, 그 데이터를 컴퓨터에서 처리하는 것을 말한다.In this case, the target device 400 may be a measurement target of a remote meter reading system (Automatic Meter Reading; hereinafter, AMR). In general, the remote meter reading system (AMR) refers to converting a measurement result into an electrical signal from a measurement target at a distant point, transmitting data through a communication network, and processing the data in a computer.

원격 검침 시스템(AMR)의 서버는 TCP/IP(Transmission Control Protocol/Internet Protocol)를 기반으로 데이터 통신을 수행할 수 있도록 제공되는 데이터 통신망(예컨대, 기간망, 사설망, 인터넷망 포함)을 통해 다수의 데이터수집장치와 상호 접속된다. 서버는 데이터 통신망을 통해 데이터수집장치와 실시간으로 데이터 송수신을 수행하며, 각 측정 대상의 전력 상태를 실시간으로 모니터링(monitoring)하는 것이 가능하다.The server of the remote meter reading system (AMR) uses a data communication network (eg, backbone network, private network, Internet network included) provided to perform data communication based on TCP/IP (Transmission Control Protocol/Internet Protocol). interconnected with the collection device. The server performs data transmission and reception in real time with the data collection device through the data communication network, and it is possible to monitor the power state of each measurement target in real time.

또한, 서버는 데이터수집장치로부터 각 측정 대상의 검침 데이터를 실시간으로 제공받는다. 이러한 검침 데이터를 기초로 하여 각 측정 대상의 전력 상태, 예컨대 정전, 도전, 누전 상태 등을 분석하여 관리자에게 제공한다. In addition, the server receives the meter reading data of each measurement target from the data collection device in real time. Based on the meter reading data, the power status of each measurement target, for example, power failure, conduction, and leakage status is analyzed and provided to the manager.

여기서, 검침 데이터는 하나의 데이터 집중화 장치에 할당된 모든 측정 대상의 사용 전력량의 총합, 각 측정 대상별 사용 전력량, 순시 전력량 등이 될 수 있으며, 이 외에도 각 측정 대상의 전력 품질을 파악할 수 있는 모든 데이터가 포함될 수 있다.Here, the meter reading data may be the sum total of the amount of power used by all measurement targets allocated to one data concentrator device, the amount of power used by each measurement target, the instantaneous power amount, etc. In addition, all data that can determine the power quality of each measurement target may be included.

서버(300)는 원격 검침 시스템(AMR)의 데이터수집장치 또는 서버로써 동작할 수 있다. 즉, 서버(300)는 대상 기기(400)에 대한 검침 데이터를 실시간을 제공받고 저장할 수 있다. 이를 통해, 서버(300)는 대상 기기(400)의 동작 상태를 모니터링하고 원격 제어할 수 있다. 다만, 본 발명이 이에 한정되는 것은 아니다. The server 300 may operate as a data collection device or server of the remote meter reading system (AMR). That is, the server 300 may receive and store the meter reading data for the target device 400 in real time. Through this, the server 300 may monitor and remotely control the operating state of the target device 400 . However, the present invention is not limited thereto.

도 2는 도 1의 사용자 단말기를 설명하기 위한 도면이다.FIG. 2 is a diagram for explaining the user terminal of FIG. 1 .

도 2를 참조하면, 사용자 단말기(100)는, 제어부(110), 카메라부(120), 센서부(130), 통신부(140), 증강 현실 처리부(150), 메모리부(160), 디스플레이부(170) 및 인터페이스부(180)를 포함한다. 다만, 도 2에 도시된 사용자 단말기(100)의 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 사용자 단말기(100)가 구현될 수 있다.Referring to FIG. 2 , the user terminal 100 includes a control unit 110 , a camera unit 120 , a sensor unit 130 , a communication unit 140 , an augmented reality processing unit 150 , a memory unit 160 , and a display unit. 170 and an interface unit 180 . However, since the components of the user terminal 100 shown in FIG. 2 are not essential, the user terminal 100 having more components or fewer components may be implemented.

제어부(110)는 사용자 단말기(100)에 포함된 구성요소의 전반적인 동작을 제어할 수 있다. 제어부(110)는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 실행할 수 있다. 또한, 제어부(350)는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수 있다. The controller 110 may control the overall operation of the components included in the user terminal 100 . The controller 110 may execute an operating system (OS) and one or more software applications executed on the operating system. In addition, the controller 350 may access, store, manipulate, process, and generate data in response to the execution of the software.

카메라부(120)는 영상을 촬영하는 장치로써, 촬영된 영상은 제어부(110)에 전달된다. 카메라부(120)에서 촬영된 영상은 실시간 프리뷰 형태로 디스플레이부(170)에 표시될 수 있다.The camera unit 120 is a device for capturing an image, and the captured image is transmitted to the controller 110 . The image captured by the camera unit 120 may be displayed on the display unit 170 in the form of a real-time preview.

센서부(130)는 사용자 단말기(100)의 주변 환경 정보를 측정하는 장치이다. 센서부(130)는 온도 센서, 습도 센서, 위치감지 센서, 동작감지 센서 등을 포함할 수 있다. 여기에서, 위치감지 센서는 GPS신호를 감지하는 GPS 센서가 이용될 수 있고, 동작감지 센서로는 자이로스코프 센서 또는 가속도 센서가 이용될 수 있다. 또한, 센서부(130)는 사용자 단말기(100)의 현재 위치, 움직임, 기울기, 방향, 촬영하는 객체와의 거리, 주변의 소리, 밝기 등을 측정할 수 있다.The sensor unit 130 is a device for measuring the surrounding environment information of the user terminal 100 . The sensor unit 130 may include a temperature sensor, a humidity sensor, a position sensor, a motion sensor, and the like. Here, a GPS sensor that detects a GPS signal may be used as the location sensor, and a gyroscope sensor or an acceleration sensor may be used as the motion sensor. In addition, the sensor unit 130 may measure the current position, movement, tilt, direction, distance to the object to be photographed, ambient sound, brightness, and the like of the user terminal 100 .

통신부(140)는 도킹 스테이션(200)과 데이터를 교환한다. 또한, 통신부(140)는 증강현실 데이터베이스를 저장하고 관리하는 서버(300) 또는 촬영 대상인 대상 기기(400)와 데이터를 교환한다. 이때, 증강현실 데이터베이스는 증강현실 객체, 증강현실 객체의 속성 정보를 저장한 데이터베이스이다. The communication unit 140 exchanges data with the docking station 200 . In addition, the communication unit 140 exchanges data with the server 300 that stores and manages the augmented reality database or the target device 400 that is a photographing target. In this case, the augmented reality database is an augmented reality object and a database storing attribute information of the augmented reality object.

통신부(140)는 다른 단말 장치와 유무선으로 데이터를 주고 받는 전자 장치, 모듈 또는 프로그램을 포함할 수 있다. 통신부(140)에서 이용하는 통신 규약은, 예를 들어, CDMA(Code Division Multiple Access) 통신, WCDMA(Wideband Code Division Multiple Access) 통신 혹은, 광대역 무선 통신을 포함한다. 다만, 본 발명이 이에 한정되는 것은 아니다. The communication unit 140 may include an electronic device, a module, or a program that transmits and receives data to and from another terminal device in a wired or wireless manner. The communication protocol used by the communication unit 140 includes, for example, CDMA (Code Division Multiple Access) communication, WCDMA (Wideband Code Division Multiple Access) communication, or broadband wireless communication. However, the present invention is not limited thereto.

증강 현실 처리부(150)는 증강 현실 정보를 기초로 사용자에게 제공되는 증강 현실 인터페이스를 생성할 수 있다. 증강 현실 정보는 서버(300)의 데이터베이스에 저장되거나, 사용자 단말기(100)의 메모리부(160)에 저장되어 이용될 수 있다.The augmented reality processing unit 150 may generate an augmented reality interface provided to the user based on the augmented reality information. The augmented reality information may be stored in the database of the server 300 or stored in the memory 160 of the user terminal 100 and used.

증강 현실 처리부(150)는 증강 현실 정보를 기초로 실제 물체를 가상으로 정확하게 표현하는 모델링 기술과, 이를 사실적으로 표현하는 렌더링 기술을 이용할 수 있다. 모델링 기술은 비디오로 입력되는 2D 영상에 깊이 정보를 반영하여 합성하는 기술이다. 모델링 기술은 사용자 의도대로 객체 변형, 색상 변화 등을 수행하여 현실 공간에서 이룰 수 없는 다양한 응용을 가능케 한다. 렌더링 기술은 생성된 가상 모델들에 조명효과, 그림자 효과, 밝기 변화 등을 부가하여 가상 모델을 사실적으로 표현함으로써, 사용자가 증강 현실 인터페이스에서 생동감을 느낄 수 있게 하는 기술이다.The augmented reality processing unit 150 may use a modeling technique for accurately expressing a real object in virtual reality based on the augmented reality information, and a rendering technique for realistically expressing the real object. The modeling technique is a technique for synthesizing a 2D image input as a video by reflecting depth information. Modeling technology enables various applications that cannot be achieved in real space by performing object transformation and color change according to the user's intention. Rendering technology is a technology that allows a user to feel a sense of vitality in an augmented reality interface by realistically expressing the virtual model by adding lighting effects, shadow effects, and brightness changes to the generated virtual models.

메모리부(160)는 사용자 단말기(100)의 전반적인 동작을 제어하기 위한 운영체제, 응용 프로그램 및 저장용 데이터(위치 정보, 압축된 이미지 파일, 동영상 등)를 저장한다. 또한, 메모리부(160)는 촬영되는 대상에 대응되는 증강현실 객체, 증강현실 객체의 위치 정보 및 상태 정보를 저장할 수 있다. 즉, 메모리부(160)는 표시 대상 객체와, 표시 대상 객체의 상태 정보 및 증강 현실 정보를 저장할 수 있다.The memory unit 160 stores an operating system for controlling the overall operation of the user terminal 100 , an application program, and data for storage (location information, compressed image file, video, etc.). In addition, the memory unit 160 may store the augmented reality object corresponding to the object to be photographed, location information and state information of the augmented reality object. That is, the memory unit 160 may store the display target object, state information of the display target object, and augmented reality information.

메모리부(160)는 RAM(Random Access Memory) 또는 ROM(Read Only Memory)과 정적 정보 및 명령어들을 저장하는 정적 저장 디바이스를 포함할 수 있다. 메모리부(160)는 휘발성 메모리 유닛 또는 비휘발성 메모리 유닛일 수 있다. 메모리부(160)는 또한 자기 또는 광디스크와 같은 컴퓨터 판독가능 매체의 또 다른 유형일 수 있다.The memory unit 160 may include a random access memory (RAM) or read only memory (ROM) and a static storage device for storing static information and instructions. The memory unit 160 may be a volatile memory unit or a non-volatile memory unit. Memory unit 160 may also be another type of computer readable medium, such as a magnetic or optical disk.

디스플레이부(170)는 사용자 단말기(100)의 동작 중에 발생되는 상태 정보(또는 인디케이터), 제한된 숫자와 문자들, 동화상(moving picture) 및 정화상(still picture) 등을 표시한다. 또한, 디스플레이부(170)는 카메라부(120)를 통해 수신되는 영상을 표시하고, 카메라부(120)의 화각 내에 위치하는 표시 대상 객체에 대한 증강 현실 인터페이스를 표시할 수 있다. The display unit 170 displays status information (or indicators) generated during the operation of the user terminal 100 , limited numbers and characters, a moving picture, a still picture, and the like. Also, the display unit 170 may display an image received through the camera unit 120 , and may display an augmented reality interface for a display target object located within a field of view of the camera unit 120 .

인터페이스부(180)는 사용자로부터의 입력을 수신할 수 있다. 인터페이스부(180)는 버튼형 입력부, 터치 스크린, 키보드 또는 마우스 등과 같은 입력장치를 포함할 수 있다. 예를 들어, 터치 스크린은 디스플레이부(170)의 상면에 형성될 수 있고, 사용자의 터치를 통해 입력을 수신할 수 있다. 다만, 본 발명이 이에 한정되는 것은 아니다.The interface unit 180 may receive an input from a user. The interface unit 180 may include an input device such as a button type input unit, a touch screen, a keyboard, or a mouse. For example, the touch screen may be formed on the upper surface of the display unit 170 and may receive an input through a user's touch. However, the present invention is not limited thereto.

도 3은 도 1의 사용자 단말기와 도킹 스테이션의 결합 구조를 설명하기 위한 도면이다. 도 4는 도 1의 증강 현실 제공 시스템의 동작 방법을 설명하기 위한 도면이다.FIG. 3 is a view for explaining a coupling structure of the user terminal and the docking station of FIG. 1 . FIG. 4 is a diagram for explaining an operation method of the augmented reality providing system of FIG. 1 .

도 3을 참조하면, 본 발명의 증강 현실 제공 시스템에 포함된 도킹 스테이션(200)은, 사용자 단말기(100)가 결합되는 결합 테이블(210), 바닥면에 고정되는 지지부(230), 결합 테이블(210)과 지지부(230)를 연결하는 연결부(220)를 포함한다.Referring to FIG. 3 , the docking station 200 included in the augmented reality providing system of the present invention includes a coupling table 210 to which the user terminal 100 is coupled, a support 230 fixed to the bottom surface, and a coupling table ( and a connector 220 connecting the 210 and the support 230 .

이때, 결합 테이블(210)은 연결부(220)를 중심으로 각도가 조절되며, 연결부(220)는 높낮이가 조절될 수 있다.In this case, the angle of the coupling table 210 is adjusted with respect to the connection part 220 , and the height of the connection part 220 may be adjusted.

결합 테이블(210)의 일면에는 사용자 단말기(100)가 거치되는 거치부(214), 사용자 단말기(100)와 물리적 또는 전기적으로 연결되는 연결 단자(212)를 포함한다. 결합 테이블(210)의 측면에는 연결 포트(216) 및 스피커부(218)가 형성될 수 있다. 다만, 이는 하나의 예시일 뿐 본 발명이 이에 한정되는 것은 아니다.One surface of the coupling table 210 includes a cradle 214 on which the user terminal 100 is mounted, and a connection terminal 212 physically or electrically connected to the user terminal 100 . A connection port 216 and a speaker unit 218 may be formed on the side of the coupling table 210 . However, this is only an example, and the present invention is not limited thereto.

결합 테이블(210)과 연결부(220) 사이에는 각도 조절부(225)가 형성된다. 각도 조절부(225)는 상하 좌우로 회전될 수 있으며, 각도 조절부(225)의 내측에는 위치 센서부(도 4의 230)가 구비되어, 결합 테이블(210)의 위치 정보와 각도 정보를 측정할 수 있다. 이때, 위치 정보와 각도 정보는 각각 X축, Y축 및 Z축으로 이루어진 3차원 좌표 정보로 구성될 수 있다. An angle adjustment unit 225 is formed between the coupling table 210 and the connection unit 220 . The angle adjusting unit 225 may be rotated up, down, left and right, and a position sensor unit ( 230 in FIG. 4 ) is provided inside the angle adjusting unit 225 to measure the position information and angle information of the coupling table 210 . can do. In this case, the position information and the angle information may be composed of three-dimensional coordinate information consisting of an X-axis, a Y-axis, and a Z-axis, respectively.

예를 들어, 위치 정보는 지면을 기준으로 3차원 좌표 정보로 구성되어, 도킹 스테이션(200)에 결합된 사용자 단말기(100)의 위치를 나타낼 수 있다. 각도 정보는 결합 테이블(210)의 기울어진 정도를 측정하여 사용자 단말기(100)에 포함된 카메라부(120)의 화각의 범위에 포함된 대상 기기(400)를 계산하는데 이용될 수 있다. 또한, 각도 정보는 도킹 스테이션(200)에 결합된 사용자 단말기(100)에 포함된 카메라부(120)의 앵글, 화각 및 배율에 대한 정보를 포함할 수 있다. For example, the location information may be composed of three-dimensional coordinate information based on the ground to indicate the location of the user terminal 100 coupled to the docking station 200 . The angle information may be used to calculate the target device 400 included in the range of the angle of view of the camera unit 120 included in the user terminal 100 by measuring the degree of inclination of the combination table 210 . Also, the angle information may include information on an angle, an angle of view, and a magnification of the camera unit 120 included in the user terminal 100 coupled to the docking station 200 .

여기에서, 앵글은 피사체를 찍기 위하여 카메라를 피사체를 향해 위치시켰을 때 발생하는 촬영 각도를 의미하고, 화각은 카메라로 포착하는 장면의 시야를 의미하고, 배율은 물체의 크기에 대한 상의 크기의 비를 의미한다.Here, the angle means the shooting angle that occurs when the camera is positioned toward the subject to take a picture, the angle of view means the field of view of the scene captured by the camera, and the magnification is the ratio of the size of the image to the size of the object. it means.

도 4를 참조하면, 본 발명의 일 실시예에 따른 증강 현실 제공 시스템에서 사용자 단말기(100)는 카메라부(120)의 화각 내에 위치한 대상 기기(400)에 대한 증강 현실 인터페이스를 디스플레이부(170) 상에 표시한다. Referring to FIG. 4 , in the augmented reality providing system according to an embodiment of the present invention, the user terminal 100 displays the augmented reality interface for the target device 400 located within the angle of view of the camera unit 120 on the display unit 170 . displayed on the

여기에서, 실질적으로 카메라부(120)가 동작하지 않더라도, 증강 현실 제공 시스템은 사용자 단말기(100)의 디스플레이부(170)에 대향되는 방향에 위치한 대상 기기(400)의 증강 현실 인터페이스를 디스플레이부(170) 상에 표시할 수 있다.Here, even if the camera unit 120 does not substantially operate, the augmented reality providing system displays the augmented reality interface of the target device 400 located in the direction opposite to the display unit 170 of the user terminal 100 on the display unit ( 170) can be displayed.

도킹 스테이션(200)은 사용자 단말기(100)와 결합된다. 도킹 스테이션(200)은, 사용자 단말기(100)가 결합된 결합 테이블(210)의 위치 정보와 각도 정보를 측정하기 위한 위치 각도 센서부(235), 사용자 단말기(100) 및 서버(300)와 데이터를 교환하는 통신부(240), 도킹 스테이션(200)의 ID 정보를 저장하는 메모리부(250)를 포함한다.The docking station 200 is coupled to the user terminal 100 . The docking station 200, the position angle sensor unit 235 for measuring the position information and angle information of the coupling table 210 to which the user terminal 100 is coupled, the user terminal 100 and the server 300 and data and a communication unit 240 for exchanging , and a memory unit 250 for storing ID information of the docking station 200 .

서버(300)는 도킹 스테이션(200) 및 대상 기기(400)와 연동되어 도킹 스테이션(200) 및 대상 기기(400)에 대한 데이터를 저장한다. 또한, 서버(300)는 대상 기기(400)에 대한 증강 현실 관련 정보를 도킹 스테이션(200) 또는 사용자 단말기(100)에 제공한다. The server 300 works with the docking station 200 and the target device 400 to store data about the docking station 200 and the target device 400 . In addition, the server 300 provides augmented reality related information on the target device 400 to the docking station 200 or the user terminal 100 .

서버(300)는 객체 정보 DB(310), 상태 정보 DB(320), 위치 정보 DB(330), 증강현실 DB(340)를 포함한다. 이하에서, 대상 기기(400)는 '객체'라는 용어와 혼용하여 설명하도록 한다.The server 300 includes an object information DB 310 , a state information DB 320 , a location information DB 330 , and an augmented reality DB 340 . Hereinafter, the target device 400 will be described by mixing the term 'object'.

객체 정보 DB(310)는 객체에 대한 다양한 정보를 포함한다. 예를 들어, 객체의 제품 정보(제품명, 제품 번호, 제품 종류, 설치 시기, 관리 방법 등), 객체가 설치된 위치 정보, 객체와 관련된 회로도 등의 정보를 포함할 수 있다.The object information DB 310 includes various information about objects. For example, it may include information such as product information (product name, product number, product type, installation time, management method, etc.) of the object, location information where the object is installed, and a circuit diagram related to the object.

상태 정보 DB(320)는 객체의 동작 정보를 포함한다. 예를 들어, 상태 정보 DB(320)는 각 객체의 전력량 정보, 온도 정보, 전압 정보, 또는 전류 정보를 포함할 수 있다. 각 객체의 상태 정보는 실시간으로 업데이트될 수 있으며, 원격 검침 시스템(AMR)의 일부로 이용될 수 있다.The state information DB 320 includes operation information of the object. For example, the state information DB 320 may include power amount information, temperature information, voltage information, or current information of each object. The state information of each object may be updated in real time, and may be used as a part of a remote meter reading system (AMR).

위치 정보 DB(320)는 객체의 위치 정보를 포함한다. 예를 들어, 위치 정보 DB(320)는 객체의 3차원 상의 공간 좌표(예를 들어, X축, Y축 및 Z축으로 이루어진 3차원 좌표 정보)로 구성될 수 있다. 또한, 위치 정보 DB(320)는 각각의 도킹 스테이션(200)에 대한 위치 정보를 포함한다. 이때, 도킹 스테이션(200)에 대한 위치 정보는 각각의 도킹 스테이션(200)에 할당된 ID 정보와 함께 저장될 수 있다. 마찬가지로, 도킹 스테이션(200)에 대한 위치 정보는 3차원 상의 공간 좌표로 구성될 수 있다.The location information DB 320 includes location information of the object. For example, the location information DB 320 may be composed of three-dimensional spatial coordinates of the object (eg, three-dimensional coordinate information including the X-axis, Y-axis, and Z-axis). Also, the location information DB 320 includes location information for each docking station 200 . In this case, location information on the docking station 200 may be stored together with ID information allocated to each docking station 200 . Similarly, the location information for the docking station 200 may be configured as three-dimensional spatial coordinates.

증강현실 DB(340)는 객체를 모델링 및 렌더링 하는데 이용되는 로데이터(raw data)인 증강 현실 정보를 저장한다. 또한, 증강현실 DB(340)는 증강 현실 정보를 기초로 사용자에게 제공되는 증강 현실 인터페이스를 저장한다. 즉, 증강현실 DB(340)는 객체의 모델링 및 렌더링 이전의 증강 현실 정보와, 모델링 및 렌더링 이후의 증강 현실 인터페이스를 모두 저장하고, 사용자 단말기(100)의 요청에 따라 필요한 데이터를 제공할 수 있다. The augmented reality DB 340 stores augmented reality information that is raw data used to model and render an object. In addition, the augmented reality DB 340 stores the augmented reality interface provided to the user based on the augmented reality information. That is, the augmented reality DB 340 stores both the augmented reality information before modeling and rendering of the object, and the augmented reality interface after modeling and rendering, and may provide necessary data according to the request of the user terminal 100 . .

서버(300)는 위치 각도 센서부(235)에서 측정한 도킹 스테이션(200)의 위치 정보와 각도 정보를 이용하여, 사용자 단말기(100)에 포함된 카메라부(120)의 화각 내에 위치하는 표시 대상 객체를 선정할 수 있다. 이를 통해, 서버(300)는 사용자 단말기(100)의 디스플레이부(170)에 표시되어야 할 대상 기기(400)들을 선정 할 수 있다. 이어서, 서버(300)는 선정된 대상 기기(400)에 대한 증강 현실 관련 정보를 도킹 스테이션(200)을 통해 사용자 단말기(100)에 제공할 수 있다. 사용자 단말기(100)는 수신된 증강 현실 관련 정보를 디스플레이부(170) 상에 표시할 수 있다.The server 300 uses the position information and angle information of the docking station 200 measured by the position and angle sensor unit 235 to display a target located within the angle of view of the camera unit 120 included in the user terminal 100 . object can be selected. Through this, the server 300 may select target devices 400 to be displayed on the display unit 170 of the user terminal 100 . Subsequently, the server 300 may provide augmented reality related information on the selected target device 400 to the user terminal 100 through the docking station 200 . The user terminal 100 may display the received augmented reality related information on the display unit 170 .

구체적으로, 본 발명의 일 실시예에서 사용자 단말기(100)는 선정된 대상 기기(400)에 대한 증강 현실 정보 및 위치 정보를 서버(300)로부터 수신하고, 증강 현실 정보 및 위치 정보를 기초로 증강 현실 인터페이스를 생성하여 화면에 표시할 수 있다.Specifically, in an embodiment of the present invention, the user terminal 100 receives the augmented reality information and location information for the selected target device 400 from the server 300, and augments the augmented reality information and the location information based on the location information. A reality interface can be created and displayed on the screen.

본 발명의 다른 실시예에서 사용자 단말기(100)는 대상 기기(400)에 대한 증강 현실 인터페이스를 직접 서버(300)로부터 수신하고, 디스플레이부(170)에 그대로 표시할 수 있다.In another embodiment of the present invention, the user terminal 100 may directly receive the augmented reality interface for the target device 400 from the server 300 and display it on the display unit 170 as it is.

본 발명의 증강 현실 제공 시스템은 카메라부(120)에서 촬영한 영상을 분석하여 영상 내에 포함된 대상 기기(400)를 인식하는 객체 인식 과정을 생략할 수 있다. 즉, 본 발명의 증강 현실 제공 시스템은 증강 현실에 필요한 객체 인식 과정을 생략함으로써, 증강 현실 구현 속도를 향상시킬 수 있다. 이를 통해, 사용자 단말기는 더 빠르고 부드러운 증강 현실 영상을 사용자에게 제공할 수 있으며, 사용자의 입력에 대한 반응 속도는 증가될 수 있다.The augmented reality providing system of the present invention may omit the object recognition process of recognizing the target device 400 included in the image by analyzing the image captured by the camera unit 120 . That is, the augmented reality providing system of the present invention can improve the augmented reality implementation speed by omitting the object recognition process required for augmented reality. Through this, the user terminal may provide a faster and smoother augmented reality image to the user, and the reaction speed to the user's input may be increased.

본 발명의 또 다른 실시예에서, 사용자 단말기(100)는 서버로부터 사용자 단말기(100)와 결합된 도킹 스테이션(200)과 관련된 데이터를 수신할 수 있다. 여기에서, 도킹 스테이션(200)과 관련된 데이터는 도킹 스테이션(200)의 위치 정보, 도킹 스테이션(200)의 주변에 위치한 객체의 제품 정보, 객체의 위치 정보, 객체의 상태 정보, 객체의 증강 현실 정보를 포함할 수 있다. 즉, 도킹 스테이션(200)과 관련된 데이터는 서버(300)의 객체 정보 DB(310), 상태 정보 DB(320), 위치 정보 DB(330), 증강현실 DB(340)에 저장된 데이터일 수 있다.In another embodiment of the present invention, the user terminal 100 may receive data related to the docking station 200 coupled to the user terminal 100 from a server. Here, data related to the docking station 200 includes location information of the docking station 200, product information of an object located in the vicinity of the docking station 200, location information of an object, state information of an object, augmented reality information of an object may include. That is, the data related to the docking station 200 may be data stored in the object information DB 310 , the state information DB 320 , the location information DB 330 , and the augmented reality DB 340 of the server 300 .

도킹 스테이션(200)과 관련된 데이터는, 사용자 단말기(100)의 메모리 또는 도킹 스테이션(200)의 메모리에 저장되어 이용될 수 있다.Data related to the docking station 200 may be stored and used in the memory of the user terminal 100 or the memory of the docking station 200 .

이어서, 사용자 단말기(100)는 수신된 도킹 스테이션(200)과 관련된 데이터와, 도킹 스테이션(200)의 위치 정보 및 각도 정보를 이용하여, 사용자 단말기(100)의 디스플레이부(170)에 표시 대상 객체를 선정 할 수 있다. Subsequently, the user terminal 100 uses the received data related to the docking station 200 and the location information and angle information of the docking station 200 to display the object to be displayed on the display unit 170 of the user terminal 100 . can be selected

이어서, 사용자 단말기(100)는 표시 대상 객체에 대한 증강 현실 인터페이스를 생성하고, 생상된 증강 현실 인터페이스를 촬영된 영상에 오버랩하여 디스플레이부(170)에 표시할 수 있다. 다만, 이는 하나의 예시에 불과하고, 본 발명이 이에 한정되는 것은 아니다.Next, the user terminal 100 may generate an augmented reality interface for the display target object, overlap the generated augmented reality interface with the captured image, and display it on the display unit 170 . However, this is only an example, and the present invention is not limited thereto.

이하에서는, 본 발명의 증강 현실 제공 시스템에서 수행되는 본 발명의 몇몇 실시예에 따른 증강 현실 제공 방법에 대해 자세히 살펴보도록 한다.Hereinafter, an augmented reality providing method according to some embodiments of the present invention performed in the augmented reality providing system of the present invention will be described in detail.

도 5는 본 발명의 일 실시예에 따른 증강 현실 제공 방법을 나타내는 순서도이다.5 is a flowchart illustrating a method for providing augmented reality according to an embodiment of the present invention.

도 5를 참조하면, 본 발명의 일 실시예에 따른 증강 현실 제공 방법은, 우선 도킹 스테이션(200)과 사용자 단말기(100) 사이의 결합을 감지한다(S110). 예를 들어, 도킹 스테이션(200)은 연결 단자(212)와 결합된 사용자 단말기(100) 사이의 데이터 교환을 통해 사용자 단말기(100)와의 결합을 감지할 수 있다.Referring to FIG. 5 , in the augmented reality providing method according to an embodiment of the present invention, a coupling between the docking station 200 and the user terminal 100 is first detected ( S110 ). For example, the docking station 200 may detect the coupling with the user terminal 100 through data exchange between the connection terminal 212 and the coupled user terminal 100 .

이어서, 서버(300)는 사용자 단말기(100)와 결합된 도킹 스테이션(200)의 ID 정보를 수신한다(S120). 사용자 단말기(100)와 결합된 도킹 스테이션(200)은 메모리부(250)에 저장된 자신의 ID 정보를 서버(300)에 전송한다.Then, the server 300 receives the ID information of the docking station 200 coupled to the user terminal 100 (S120). The docking station 200 coupled with the user terminal 100 transmits its ID information stored in the memory unit 250 to the server 300 .

이어서, 서버(300)는 수신된 ID 정보를 기초로 해당 도킹 스테이션(200)의 위치 정보를 추출한다(S130). 이때, 도킹 스테이션(200)의 위치 정보는 서버(300)에 미리 저장된 3차원 좌표 정보가 될 수 있다.Then, the server 300 extracts the location information of the docking station 200 based on the received ID information (S130). In this case, the location information of the docking station 200 may be 3D coordinate information stored in advance in the server 300 .

이어서, 서버(300)는 사용자 단말기(100)와 결합된 도킹 스테이션(200)의 각도 정보를 수신한다(S140). 여기에서, 각도 정보는 위치 각도 센서부(235)에 의해 측정된 결합 테이블(210)의 기울어진 정도가 될 수 있다. 또한, 각도 정보는 도킹 스테이션(200)에 결합된 사용자 단말기(100)에 포함된 카메라부(120)의 앵글, 화각, 및 배율에 대한 정보를 포함할 수 있다. Then, the server 300 receives the angle information of the docking station 200 coupled to the user terminal 100 (S140). Here, the angle information may be the degree of inclination of the coupling table 210 measured by the position angle sensor unit 235 . Also, the angle information may include information on an angle, an angle of view, and a magnification of the camera unit 120 included in the user terminal 100 coupled to the docking station 200 .

이어서, 서버(300)는 수신된 도킹 스테이션(200)의 위치 정보와 각도 정보를 기초로 사용자 단말기(100)에서 표시될 표시 대상 객체를 선정한다(S150). 이때, 서버(300)는 미리 입력된 대상 기기(400)의 위치 정보와 도킹 스테이션(200)의 위치 정보를 비교하고, 각도 정보를 고려하여 사용자 단말기(100)의 디스플레이부(170)에 표시되어야 할 표시 대상 객체를 선정할 수 있다. Next, the server 300 selects a display target object to be displayed in the user terminal 100 based on the received location information and angle information of the docking station 200 ( S150 ). At this time, the server 300 compares the pre-input location information of the target device 400 with the location information of the docking station 200, and should be displayed on the display unit 170 of the user terminal 100 in consideration of the angle information. You can select the display target object to be displayed.

예를 들어, 서버(300)는 도킹 스테이션(200)과 인접한 대상 기기(400)들을 추출하고, 도킹 스테이션(200)의 각도 정보를 고려하여 사용자 단말기(100)의 카메라부(120)의 화각 범위에 내에 포함된 대상 기기(400)를 선정할 수 있다. For example, the server 300 extracts the target devices 400 adjacent to the docking station 200 , and considers angle information of the docking station 200 , and the range of the angle of view of the camera unit 120 of the user terminal 100 . It is possible to select the target device 400 included in the .

이어서, 서버(300) 또는 사용자 단말기(100)는 선정된 표시 대상 객체에 대한 증강 현실 인터페이스를 생성한다(S160). 이때, 사용자 단말기(100)는 서버(300)로부터 표시 대상 객체에 대한 증강 현실 정보를 수신하여 증강 현실 인터페이스를 생성할 수 있다. 또한, 사용자 단말기(100)는 서버(300)로부터 표시 대상 객체에 대한 증강 현실 인터페이스를 직접 수신할 수 있다. Next, the server 300 or the user terminal 100 generates an augmented reality interface for the selected display target object (S160). In this case, the user terminal 100 may receive the augmented reality information on the display target object from the server 300 to generate the augmented reality interface. Also, the user terminal 100 may directly receive the augmented reality interface for the display target object from the server 300 .

이어서, 사용자 단말기(100)는 표시 대상 객체에 대한 증강 현실 인터페이스를 디스플레이부(170)에 표시한다(S170).Then, the user terminal 100 displays the augmented reality interface for the display target object on the display unit 170 (S170).

이때, 본 발명의 증강 현실 제공 방법은, 도킹 스테이션(200)에 사용자 단말기(100)가 결합됨으로써, 흔들림 없는 증강 현실 영상을 사용자에게 제공할 수 있다. 또한, 본 발명의 증강 현실 제공 방법은, 도킹 스테이션(200)의 위치 정보와 각도 정보를 이용하여 사용자 단말기(100)의 카메라 화각 내에 위치하는 대상 객체에 대한 증강 현실 인터페이스를 제공할 수 있다. In this case, in the augmented reality providing method of the present invention, by coupling the user terminal 100 to the docking station 200 , it is possible to provide a shake-free augmented reality image to the user. In addition, the augmented reality providing method of the present invention may provide an augmented reality interface for a target object located within the camera field of view of the user terminal 100 by using the position information and angle information of the docking station 200 .

따라서, 본 발명의 증강 현실 제공 방법은 증강 현실에 필요한 객체 인식 과정을 생략할 수 있어, 증강 현실 구현 속도를 향상시킬 수 있고, 사용자의 입력에 대한 반응 속도를 증가시킬 수 있다.Accordingly, the augmented reality providing method of the present invention can omit the object recognition process required for augmented reality, so that the augmented reality implementation speed can be improved, and the reaction speed to the user's input can be increased.

도 6은 본 발명의 다른 실시예에 따른 증강 현실 제공 방법을 나타내는 순서도이다. 이하에서는 앞에서 도 5를 참조하여 설명한 증강 현실 제공 방법과의 차이점을 위주로 설명하도록 한다.6 is a flowchart illustrating a method for providing augmented reality according to another embodiment of the present invention. Hereinafter, differences from the augmented reality providing method described above with reference to FIG. 5 will be mainly described.

도 6을 참조하면, 앞에서 설명한 S140 단계에 이어서, 서버(300)는 사용자 단말기(100)에 포함된 카메라부(120)의 배율 정보를 수신한다(S245). 여기에서, 배율은 물체의 크기에 대한 상의 크기의 비를 의미하며, 배율 정보는 카메라부(120)의 현재 배율에 대한 데이터를 포함한다.Referring to FIG. 6 , following step S140 described above, the server 300 receives magnification information of the camera unit 120 included in the user terminal 100 ( S245 ). Here, the magnification means a ratio of the size of the image to the size of the object, and the magnification information includes data on the current magnification of the camera unit 120 .

이어서, 서버(300)는 수신된 도킹 스테이션(200)의 위치 정보와 각도 정보 및 배율 정보를 기초로 사용자 단말기(100)에서 표시될 표시 대상 객체를 선정한다(S250). Next, the server 300 selects a display target object to be displayed in the user terminal 100 based on the received location information, angle information, and magnification information of the docking station 200 ( S250 ).

이때, 서버(300)는 미리 입력된 대상 기기(400)의 위치 정보와 도킹 스테이션(200)의 위치 정보를 비교하고, 각도 정보를 고려하여 사용자 단말기(100)의 디스플레이부(170)에 표시되어야 할 표시 대상 객체를 선정한다. 이어서, 서버(300)는 배율 정보를 기초로 사용자 단말기(100)의 디스플레이부(170)에 표시되어야 할 표시 대상 객체의 크기를 결정할 수 있다. At this time, the server 300 compares the pre-input location information of the target device 400 with the location information of the docking station 200, and should be displayed on the display unit 170 of the user terminal 100 in consideration of the angle information. Select the object to be displayed. Subsequently, the server 300 may determine the size of the display target object to be displayed on the display unit 170 of the user terminal 100 based on the magnification information.

예를 들어, 서버(300)는 도킹 스테이션(200)과 인접한 대상 기기(400)들을 추출하고, 도킹 스테이션(200)의 각도 정보를 고려하여 사용자 단말기(100)의 카메라부(120)의 화각 범위에 내에 포함된 대상 기기(400)를 선정할 수 있다. 이어서, 서버(300)는 배율 정보를 적용할 경우, 표시되는 대상 객체의 크기와, 대상 객체 및 배경과의 비율을 결정할 수 있다. For example, the server 300 extracts the target devices 400 adjacent to the docking station 200 , and considers angle information of the docking station 200 , and the range of the angle of view of the camera unit 120 of the user terminal 100 . It is possible to select the target device 400 included in the . Then, when the magnification information is applied, the server 300 may determine the size of the displayed target object and the ratio between the target object and the background.

이어서, 사용자 단말기(100)는 서버(300)로부터 표시 대상 객체에 대한 상태 정보를 수신한다(S255). 상태 정보는 표시 대상 객체의 전압, 전류, 전력량, 온도, 객체에 포함된 구성요소의 정상 동작 여부 등을 포함할 수 있다.Next, the user terminal 100 receives the state information on the display target object from the server 300 (S255). The state information may include voltage, current, amount of power, temperature of the display target object, whether a component included in the object operates normally, and the like.

이어서, 사용자 단말기(100)는 서버(300)로부터 표시 대상 객체에 대한 증강 현실 정보를 수신한다(S260). 증강 현실 정보는 표시 대상 객체의 증강 현실 인터페이스를 생성하기 위한 로데이터에 해당한다.Next, the user terminal 100 receives augmented reality information on the display target object from the server 300 (S260). The augmented reality information corresponds to raw data for generating an augmented reality interface of the display target object.

이어서, 사용자 단말기(100)는 수신된 증강 현실 정보와 상태 정보를 기초로 증강 현실 인터페이스를 생성한다(S265). 사용자 단말기(100)는 서버(300)로부터 표시 대상 객체에 대한 증강 현실 정보를 수신하여 증강 현실 인터페이스를 생성할 수 있다. 이때, 생성된 증강 현실 인터페이스는 표시 대상 객체의 상태 정보(예를 들어, 동작 상태, 동작 전력량, 시간에 따른 전력 변화량, 동작 시간, 온도, 전압 및 전류 측정치 등)를 포함할 수 있다. Next, the user terminal 100 generates an augmented reality interface based on the received augmented reality information and state information (S265). The user terminal 100 may generate an augmented reality interface by receiving augmented reality information on the display target object from the server 300 . In this case, the generated augmented reality interface may include state information of the display target object (eg, an operating state, an amount of operating power, an amount of power change according to time, an operating time, temperature, voltage, and current measurements, etc.).

이때, 표시 대상 객체의 증강 현실 이미지는 표시 대상 객체의 상태 정보에 따라 다른 크기, 형상, 색깔로 형성될 수 있다. 구체적으로, 사용자 단말기(100)의 증강 현실 처리부(150)는 사용자가 미리 설정한 설정값을 반영하여 객체 변형 또는 색상 변화 등과 같은 효과를 증강 현실 인터페이스에 추가적으로 부여할 수 있다.In this case, the augmented reality image of the display target object may be formed in different sizes, shapes, and colors according to state information of the display target object. Specifically, the augmented reality processing unit 150 of the user terminal 100 may additionally apply effects such as object transformation or color change to the augmented reality interface by reflecting a preset value set by the user.

이에 따라, 사용자 단말기(100)는 사용자의 설정값을 반영하여 사용자의 요구에 맞게 변경된 증강 현실 인터페이스를 출력할 수 있다. 즉, 사용자 단말기(100)는 서버(300)에서 제공하는 증강 현실 인터페이스를 이용할 뿐만 아니라, 사용자가 원하는 다양한 표현 효과를 증강 현실 인터페이스 상에 구현할 수 있다. Accordingly, the user terminal 100 may output the augmented reality interface changed to suit the user's request by reflecting the user's setting value. That is, the user terminal 100 may implement various expression effects desired by the user on the augmented reality interface as well as using the augmented reality interface provided by the server 300 .

이어서, 사용자 단말기(100)는 표시 대상 객체에 대한 증강 현실 인터페이스를 디스플레이부(170)에 표시한다(S270).Then, the user terminal 100 displays the augmented reality interface for the display target object on the display unit 170 (S270).

도 7은 본 발명의 또 다른 실시예에 따른 증강 현실 제공 방법을 나타내는 순서도이다. 이하에서는 앞에서 도 5를 참조하여 설명한 증강 현실 제공 방법과의 차이점을 위주로 설명하도록 한다.7 is a flowchart illustrating a method for providing augmented reality according to another embodiment of the present invention. Hereinafter, differences from the augmented reality providing method described above with reference to FIG. 5 will be mainly described.

도 7을 참조하면, 앞에서 설명한 S170 단계에 이어서, 도킹 스테이션(200)은 각도 변경 여부를 판단한다(S310). 도킹 스테이션(200)에 포함된 위치 각도 센서부(235)는 도킹 스테이션(200)의 결합 테이블(210)에 대한 각도 변경 여부를 감지한다.Referring to FIG. 7 , following step S170 described above, the docking station 200 determines whether to change the angle ( S310 ). The position angle sensor unit 235 included in the docking station 200 detects whether the angle of the docking station 200 with respect to the coupling table 210 is changed.

이어서, 도킹 스테이션(200)은 각도 정보가 변경되는 경우, 서버(300)는 변경된 각도에 대한 각도 정보를 수신한다(S320).Subsequently, when the docking station 200 changes the angle information, the server 300 receives the angle information for the changed angle (S320).

이어서, 서버(300)는 미리 수신된 도킹 스테이션(200)의 위치 정보와, 변경된 각도 정보를 기초로 표시 대상 객체를 재선정한다(S330). 또한, 서버(300)는 위치 정보와 변경된 각도 정보뿐만 아니라, 배율 정보도 함께 참고하여 표시 대상 객체를 재선정할 수 있다. 이에 대한 설명은 도 6을 참고하여 설명하였는 바, 자세한 내용은 생략하도록 한다.Next, the server 300 reselects the display target object based on the previously received location information of the docking station 200 and the changed angle information ( S330 ). Also, the server 300 may reselect the display target object by referring to the location information and the changed angle information as well as the magnification information. A description of this has been described with reference to FIG. 6 , and detailed description thereof will be omitted.

이어서, 서버(300) 또는 사용자 단말기(100)는 재선정된 표시 대상 객체에 대한 증강 현실 인터페이스를 생성한다(S340). 이때, 사용자 단말기(100)는 서버(300)로부터 표시 대상 객체에 대한 업데이트된 증강 현실 정보를 수신하여 증강 현실 인터페이스를 생성할 수 있다. Next, the server 300 or the user terminal 100 generates an augmented reality interface for the reselected display target object ( S340 ). In this case, the user terminal 100 may receive the updated augmented reality information on the display target object from the server 300 to generate the augmented reality interface.

또한, 사용자 단말기(100)는 서버(300)로부터 표시 대상 객체에 대한 변경된 증강 현실 인터페이스를 직접 수신할 수 있다. 이때, 사용자 단말기(100)는 서버(300)로부터 수신한 증강 현실 인터페이스를 그대로 디스플레이부(170)로 출력하므로, 제어부(110)의 연산량이 감소되어 증강 현실 제공 방법의 동작 속도는 증가될 수 있다.Also, the user terminal 100 may directly receive the changed augmented reality interface for the display target object from the server 300 . At this time, since the user terminal 100 outputs the augmented reality interface received from the server 300 to the display unit 170 as it is, the amount of computation of the control unit 110 is reduced, so that the operating speed of the augmented reality providing method can be increased. .

이어서, 사용자 단말기(100)는 표시 대상 객체에 대한 증강 현실 인터페이스를 디스플레이부(170)에 표시한다(S350).Next, the user terminal 100 displays the augmented reality interface for the display target object on the display unit 170 (S350).

도 8 및 도 9는 본 발명의 몇몇 실시예에 따른 증강 현실 제공 시스템의 일 예를 설명하기 위한 도면이다.8 and 9 are diagrams for explaining an example of an augmented reality providing system according to some embodiments of the present invention.

도 8 및 도 9를 참조하면, 본 발명의 몇몇 실시예에 따른 증강 현실 제공 시스템은 사용자 단말기(100)와 결합 가능한 복수의 도킹 스테이션(D1, D2, D3)을 포함한다. 도면에 명확히 도시되지는 않았으나, 본 발명의 증강 현실 제공 시스템은 복수의 도킹 스테이션(D1, D2, D3)을 제어하는 서버(300)를 포함한다.8 and 9 , the augmented reality providing system according to some embodiments of the present invention includes a plurality of docking stations D1 , D2 , and D3 that can be combined with the user terminal 100 . Although not clearly shown in the drawings, the augmented reality providing system of the present invention includes a server 300 for controlling a plurality of docking stations (D1, D2, D3).

복수의 도킹 스테이션(D1, D2, D3) 중 어느 하나에 결합된 사용자 단말기(100)는 복수의 대상 기기 중 카메라의 화각에 포함된 대상 기기에 대한 증강 현실 인터페이스를 디스플레이부(170)에 표시할 수 있다. 여기에서, 복수의 대상 기기(예를 들어, A1, A2, A3, B1, B2, C1, C2)는 자동제어기기나 산업용기기 또는 배전반 등이 될 수 있다.The user terminal 100 coupled to any one of the plurality of docking stations D1, D2, and D3 displays, on the display unit 170, an augmented reality interface for a target device included in the angle of view of the camera among the plurality of target devices. can Here, the plurality of target devices (eg, A1, A2, A3, B1, B2, C1, C2) may be an automatic control device, an industrial device, a switchboard, or the like.

예를 들어, 도킹 스테이션(D1)에 결합된 사용자 단말기(100)의 경우, 카메라의 화각에 포함된 대상 기기(A1, A2, A3)에 대한 증강 현실 인터페이스를 화면에 표시할 수 있다. For example, in the case of the user terminal 100 coupled to the docking station D1, the augmented reality interfaces for the target devices A1, A2, and A3 included in the angle of view of the camera may be displayed on the screen.

이때, 사용자 단말기(100)는 별도의 객체 인식 프로세스를 수행하지 않는다. In this case, the user terminal 100 does not perform a separate object recognition process.

구체적으로, 각각의 도킹 스테이션(D1, D2, D3)는 고유의 ID 정보를 갖는다. 서버(300)는 복수의 대상 기기(예를 들어, A1, A2, A3, B1, B2, C1, C2)에 대한 위치 정보와, 각각의 도킹 스테이션(D1, D2, D3)에 대한 위치 정보를 미리 저장된 데이터베이스에서 추출하여 이용할 수 있다. 서버(300)는 사용자 단말기(100)와 결합된 도킹 스테이션(D1)의 ID 정보를 수신하여 도킹 스테이션(D1)의 위치 정보를 추출하고, 도킹 스테이션(D1)으로부터 각도 정보를 수신한다. Specifically, each docking station (D1, D2, D3) has unique ID information. The server 300 provides location information for a plurality of target devices (eg, A1, A2, A3, B1, B2, C1, C2) and location information for each docking station (D1, D2, D3). It can be extracted from a pre-stored database and used. The server 300 receives the ID information of the docking station D1 coupled with the user terminal 100 to extract location information of the docking station D1, and receives angle information from the docking station D1.

이어서, 서버(300)는 도킹 스테이션(D1)의 위치 정보와 각도 정보를 기초로 사용자 단말기(100)가 향하는 방향에 위치한 대상 기기(A1, A2, A3)를 표시 대상 객체로 선정한다. 이어서, 서버(300)는 선정된 표시 대상 객체인 대상 기기(A1, A2, A3)에 대한 증강 현실 관련 정보를 사용자 단말기(100)에 제공하고, 사용자 단말기(100)는 수신된 정보를 디스플레이부(170)에 표시하게 된다.Next, the server 300 selects the target devices A1 , A2 , and A3 located in the direction toward which the user terminal 100 is facing based on the location information and the angle information of the docking station D1 as the display target object. Subsequently, the server 300 provides augmented reality related information on the target devices A1, A2, and A3, which are the selected display target objects, to the user terminal 100, and the user terminal 100 displays the received information on the display (170) is indicated.

만약, 도킹 스테이션(D1)의 결합 테이블이 회전하여 각도 정보가 변경되는 경우, 서버(300)는 변경된 각도 정보를 기초로 표시 대상 객체를 재선정한다. 이어서, 서버(300)는 재선정된 표시 대상 객체에 대한 증강 현실 관련 정보를 사용자 단말기(100)에 제공하고, 사용자 단말기(100)를 수신된 정보를 디스플레이부(170)에 표시하게 된다.If the angle information is changed by rotating the binding table of the docking station D1, the server 300 reselects the display target object based on the changed angle information. Then, the server 300 provides the augmented reality related information on the reselected display target object to the user terminal 100 , and displays the information received by the user terminal 100 on the display unit 170 .

이때, 증강 현실로 표현되는 대상 객체는 컨베이어 벨트(R1, R2, R3) 상에서 이동하는 물체, 물체를 가공하는 생산 장비(G1, G2), 물체를 검사하는 검사 장비, 자동제어기기 또는 산업용기기(예를 들어, A1, A2, A3, B1, B2, C1, C2) 등이 될 수 있다. 다만, 이는 하나의 예에 불과할 뿐, 본 발명이 이에 한정되는 것은 아니다.At this time, the target object expressed in augmented reality is an object moving on a conveyor belt (R1, R2, R3), production equipment (G1, G2) that processes the object, inspection equipment that inspects an object, automatic control device, or industrial device ( For example, it may be A1, A2, A3, B1, B2, C1, C2) and the like. However, this is only an example, and the present invention is not limited thereto.

사용자 단말기(100)는 다른 도킹 스테이션(D2, D3)에서도 앞에서 설명한 것과 동일한 방식으로 증강 현실 인터페이스를 표시하도록 동작될 수 있다. The user terminal 100 may be operated to display the augmented reality interface in the other docking stations D2 and D3 in the same manner as described above.

추가적으로, 서버(300)는 표시 대상 객체로 선정된 대상 기기에 대한 상태 정보를 추출하여, 대상 기기의 상태 정보를 포함하는 증강 현실 인터페이스를 사용자 단말기(100)에 제공할 수 있다. 이를 통해, 사용자 단말기(100)는 해당 영역(또는, 생산 라인)의 작업 현황 및 정상 동작 여부를 한눈에 파악하고, 특정 대상 기기를 제어할 수 있다.Additionally, the server 300 may extract status information on the target device selected as the display target object and provide the augmented reality interface including status information of the target device to the user terminal 100 . Through this, the user terminal 100 can grasp the operation status and normal operation of the corresponding area (or production line) at a glance, and control a specific target device.

본 발명의 증강 현실 제공 시스템 및 방법은, 특정 위치에 설치된 도킹 스테이션에 사용자 단말기를 결합함으로써, 흔들림 없는 증강 현실 영상을 사용자에게 제공할 수 있다. 이를 통해, 증강 현실을 이용하면서 사용자가 어지러움을 느끼는 것을 방지할 수 있다. The augmented reality providing system and method of the present invention may provide a shake-free augmented reality image to the user by coupling the user terminal to a docking station installed at a specific location. Through this, it is possible to prevent the user from feeling dizzy while using the augmented reality.

또한, 본 발명의 증강 현실 제공 시스템 및 방법은, 도킹 스테이션의 위치 정보와 각도 정보를 이용하여 사용자 단말기의 카메라 화각 내에 위치하는 대상 객체에 대한 증강 현실 인터페이스를 제공할 수 있다. 즉, 본 발명은 증강 현실에 필요한 객체 인식 과정을 생략함으로써, 증강 현실 구현 속도를 향상시킬 수 있다. 이를 통해, 사용자 단말기는 더 빠르고 부드러운 증강 현실 영상을 사용자에게 제공할 수 있으며, 사용자의 입력에 대한 반응 속도도 증가될 수 있다. In addition, the augmented reality providing system and method of the present invention may provide an augmented reality interface for a target object located within a camera field of view of a user terminal by using position information and angle information of a docking station. That is, the present invention can improve the augmented reality implementation speed by omitting the object recognition process required for augmented reality. Through this, the user terminal may provide a faster and smoother augmented reality image to the user, and the reaction speed to the user's input may be increased.

이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.Although the embodiments of the present invention have been described above with reference to the accompanying drawings, those of ordinary skill in the art to which the present invention pertains can realize that the present invention can be implemented in other specific forms without changing the technical spirit or essential features. you will be able to understand Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.

100: 사용자 단말기
200: 도킹 스테이션
300: 서버
400: 대상 기기
100: user terminal
200: docking station
300: server
400: target device

Claims (18)

도킹 스테이션과 연결되는 서버에서 수행되는 증강 현실 제공 방법으로서,
상기 도킹 스테이션과 사용자 단말기의 결합을 감지하는 단계;
상기 사용자 단말기에 결합된 상기 도킹 스테이션의 ID 정보를 수신하는 단계;
상기 ID 정보를 기초로 데이터베이스에서 상기 도킹 스테이션의 위치 정보를 추출하는 단계;
상기 도킹 스테이션의 각도 정보를 수신하는 단계;
상기 위치 정보와 상기 각도 정보를 기초로 상기 사용자 단말기의 디스플레이부에 표시될 표시 대상 객체를 선정하는 단계; 및
상기 표시 대상 객체에 대한 증강 현실 관련 데이터를 상기 사용자 단말기에 제공하는 단계를 포함하고,
상기 사용자 단말기의 디스플레이부에 표시될 표시 대상 객체를 선정하는 단계는,
상기 도킹 스테이션의 위치 정보를 기초로 상기 도킹 스테이션에 인접한 객체를 선정하는 단계와,
상기 도킹 스테이션의 각도 정보를 기초로, 상기 인접한 객체 중에서 상기 사용자 단말기에 포함된 카메라부의 화각 내에 위치하는 표시 대상 객체를 선정하는 단계를 포함하는
증강 현실 제공 방법.
As an augmented reality providing method performed in a server connected to a docking station,
detecting a coupling between the docking station and the user terminal;
receiving ID information of the docking station coupled to the user terminal;
extracting location information of the docking station from a database based on the ID information;
receiving angle information of the docking station;
selecting a display target object to be displayed on a display unit of the user terminal based on the location information and the angle information; and
Comprising the step of providing augmented reality related data for the display target object to the user terminal,
The step of selecting a display target object to be displayed on the display unit of the user terminal comprises:
selecting an object adjacent to the docking station based on the location information of the docking station;
Selecting a display target object located within an angle of view of a camera unit included in the user terminal from among the adjacent objects based on angle information of the docking station
How to provide augmented reality.
삭제delete 제1 항에 있어서,
상기 사용자 단말기의 디스플레이부에 표시될 표시 대상 객체를 선정하는 단계는,
상기 카메라부의 배율 정보를 수신하고, 상기 배율 정보를 기초로 상기 사용자 단말기에 표시될 표시 대상 객체를 선정하는 것을 더 포함하는 증강 현실 제공 방법.
According to claim 1,
The step of selecting a display target object to be displayed on the display unit of the user terminal comprises:
The augmented reality providing method further comprising receiving the magnification information of the camera unit, and selecting a display target object to be displayed on the user terminal based on the magnification information.
제1 항에 있어서,
상기 도킹 스테이션의 상기 각도 정보가 변경되는 경우, 변경된 상기 각도 정보를 기초로 상기 사용자 단말기의 디스플레이부에 표시될 표시 대상 객체를 재선정하는 단계와,
재선정된 상기 표시 대상 객체에 대한 증강 현실 정보를 상기 사용자 단말기에 업데이트하는 단계를 더 포함하는 증강 현실 제공 방법.
According to claim 1,
When the angle information of the docking station is changed, reselecting a display target object to be displayed on the display unit of the user terminal based on the changed angle information;
Augmented reality providing method further comprising the step of updating the augmented reality information on the reselected display target object to the user terminal.
제1 항에 있어서,
상기 각도 정보는, 상기 도킹 스테이션에 결합된 상기 사용자 단말기의 카메라의 앵글, 화각, 및 배율에 대한 정보를 포함하는 증강 현실 제공 방법.
According to claim 1,
The angle information is an augmented reality providing method including information on an angle, an angle of view, and a magnification of a camera of the user terminal coupled to the docking station.
제1 항에 있어서,
상기 위치 정보 및 상기 각도 정보는, X축, Y축 및 Z축으로 이루어진 3차원 좌표 정보로 구성되는 증강 현실 제공 방법.
According to claim 1,
The location information and the angle information is an augmented reality providing method consisting of three-dimensional coordinate information consisting of an X-axis, a Y-axis, and a Z-axis.
도킹 스테이션과 결합되는 사용자 단말기에서 수행되는 증강 현실 제공 방법으로서,
상기 사용자 단말기에 결합된 상기 도킹 스테이션의 정보를 서버에 전송하는 단계;
상기 서버로부터 상기 도킹 스테이션과 관련된 데이터를 수신하여 메모리에 저장하는 단계;
상기 도킹 스테이션의 위치 정보와 각도 정보를 수신하는 단계;
상기 메모리에 저장된 상기 데이터, 상기 위치 정보 및 상기 각도 정보를 기초로 상기 사용자 단말기의 디스플레이부에 표시될 표시 대상 객체를 선정하는 단계;
상기 표시 대상 객체에 대한 증강 현실 인터페이스를 생성하는 단계; 및
상기 디스플레이부에 상기 증강 현실 인터페이스를 오버랩하여 표시하는 단계를 포함하고,
상기 표시 대상 객체에 대한 증강 현실 인터페이스를 생성하는 단계는,
상기 표시 대상 객체에 대한 상태 정보를 수신하는 단계와,
상기 증강 현실 관련 데이터와 상기 상태 정보를 이용하여 상기 표시 대상 객체의 상태를 표시하는 상기 증강 현실 인터페이스를 생성하는 단계를 포함하는
증강 현실 제공 방법.
As an augmented reality providing method performed in a user terminal coupled to a docking station,
transmitting information of the docking station coupled to the user terminal to a server;
receiving data related to the docking station from the server and storing the data in a memory;
receiving position information and angle information of the docking station;
selecting a display target object to be displayed on a display unit of the user terminal based on the data stored in the memory, the location information, and the angle information;
generating an augmented reality interface for the display target object; and
Comprising the step of overlapping and displaying the augmented reality interface on the display unit,
The step of generating an augmented reality interface for the display target object includes:
Receiving state information about the display target object;
and generating the augmented reality interface for displaying the state of the display target object by using the augmented reality related data and the state information.
How to provide augmented reality.
삭제delete 제7 항에 있어서,
상기 서버로부터 상기 도킹 스테이션와 관련된 데이터를 수신하여 메모리에 저장하는 단계는, 상기 데이터를 상기 도킹 스테이션의 메모리 또는 상기 사용자 단말기의 메모리에 저장하는 것을 포함하는 증강 현실 제공 방법.
8. The method of claim 7,
The receiving of the data related to the docking station from the server and storing the data in a memory comprises storing the data in a memory of the docking station or a memory of the user terminal.
증강 현실 인터페이스를 디스플레이부에 표시하는 사용자 단말기;
상기 사용자 단말기가 결합되는 도킹 스테이션; 및
상기 사용자 단말기와 결합된 상기 도킹 스테이션의 위치 정보와 각도 정보를 기초로 상기 사용자 단말기에 표시될 표시 대상 객체를 선정하고, 상기 표시 대상 객체에 대한 증강 현실 관련 데이터를 상기 사용자 단말기에 제공하는 서버를 포함하고,
상기 서버는, 상기 위치 정보를 기초로 상기 도킹 스테이션에 인접한 객체를 선정하고, 상기 각도 정보를 기초로 상기 인접한 객체 중에서 상기 사용자 단말기에 포함된 카메라부의 화각 내에 위치하는 표시 대상 객체를 선정하는
증강 현실 제공 시스템.
a user terminal displaying an augmented reality interface on a display unit;
a docking station to which the user terminal is coupled; and
A server that selects a display target object to be displayed on the user terminal based on location information and angle information of the docking station coupled to the user terminal, and provides augmented reality related data for the display target object to the user terminal including,
The server selects an object adjacent to the docking station based on the location information, and selects a display target object located within an angle of view of a camera unit included in the user terminal from among the adjacent objects based on the angle information
Augmented reality providing system.
제10 항에 있어서,
상기 도킹 스테이션은, 결합 테이블과, 상기 결합 테이블의 각도를 조절하는 각도 조절부와, 상기 각도 조절부의 위치를 측정하는 각도 센서부와, ID정보를 저장하는 메모리부를 포함하는 증강 현실 제공 시스템.
11. The method of claim 10,
The docking station, an augmented reality providing system comprising a coupling table, an angle adjusting unit for adjusting the angle of the coupling table, an angle sensor for measuring the position of the angle adjusting unit, and a memory unit for storing ID information.
제11 항에 있어서,
상기 서버는, 상기 도킹 스테이션의 ID정보를 수신하고, 수신된 상기 ID정보를 기초로 상기 도킹 스테이션의 상기 위치 정보를 계산하는 증강 현실 제공 시스템.
12. The method of claim 11,
The server receives the ID information of the docking station, and the augmented reality providing system for calculating the location information of the docking station based on the received ID information.
삭제delete 제10 항에 있어서,
상기 서버는, 상기 사용자 단말기에 포함된 카메라부의 배율 정보를 수신하고, 상기 위치 정보, 상기 각도 정보 및 상기 배율 정보를 기초로 상기 사용자 단말기에 표시될 표시 대상 객체를 선정하는 증강 현실 제공 시스템.
11. The method of claim 10,
The server receives magnification information of a camera unit included in the user terminal, and selects a display target object to be displayed on the user terminal based on the location information, the angle information, and the magnification information.
제10 항에 있어서,
상기 서버는, 상기 도킹 스테이션의 상기 각도 정보가 변경되는 경우, 변경된 상기 각도 정보를 기초로 상기 사용자 단말기의 디스플레이부에 표시될 표시 대상 객체를 재선정하고, 재선정된 상기 표시 대상 객체에 대한 증강 현실 정보를 상기 사용자 단말기에 업데이트하는 증강 현실 제공 시스템.
11. The method of claim 10,
When the angle information of the docking station is changed, the server reselects a display target object to be displayed on the display unit of the user terminal based on the changed angle information, and augments reality for the reselected display target object Augmented reality providing system for updating information to the user terminal.
제10 항에 있어서,
상기 각도 정보는, 상기 도킹 스테이션에 결합된 상기 사용자 단말기의 카메라의 앵글, 화각, 및 배율에 대한 정보를 포함하는 증강 현실 제공 시스템.
11. The method of claim 10,
The angle information is an augmented reality providing system including information on an angle, an angle of view, and a magnification of a camera of the user terminal coupled to the docking station.
제10 항에 있어서,
상기 사용자 단말기는, 상기 서버로부터 수신된 상기 증강 현실 관련 데이터를 기초로 증강 현실 인터페이스를 생성하고, 상기 증강 현실 인터페이스를 디스플레이부에 표시하는 증강 현실 제공 시스템.
11. The method of claim 10,
The user terminal generates an augmented reality interface based on the augmented reality-related data received from the server, and displays the augmented reality interface on a display unit.
제10 항에 있어서,
상기 사용자 단말기는, 상기 표시 대상 객체에 대한 상태 정보를 수신하고, 상기 증강 현실 관련 데이터와 상기 상태 정보를 이용하여 상기 표시 대상 객체의 상태를 표시하는 상기 증강 현실 인터페이스를 생성하여 디스플레이부에 표시하는 증강 현실 제공 시스템.
11. The method of claim 10,
The user terminal receives the state information on the display target object, generates the augmented reality interface for displaying the state of the display target object using the augmented reality related data and the state information, and displays it on the display unit Augmented reality providing system.
KR1020170183533A 2017-12-29 2017-12-29 System and method for providing augmented reality user interface KR102268798B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170183533A KR102268798B1 (en) 2017-12-29 2017-12-29 System and method for providing augmented reality user interface

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170183533A KR102268798B1 (en) 2017-12-29 2017-12-29 System and method for providing augmented reality user interface

Publications (2)

Publication Number Publication Date
KR20190081178A KR20190081178A (en) 2019-07-09
KR102268798B1 true KR102268798B1 (en) 2021-06-23

Family

ID=67261179

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170183533A KR102268798B1 (en) 2017-12-29 2017-12-29 System and method for providing augmented reality user interface

Country Status (1)

Country Link
KR (1) KR102268798B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3085766B1 (en) * 2018-09-06 2020-10-16 Sidel Participations COMPUTER ASSISTANCE PROCESS IN THE MANAGEMENT OF A PRODUCTION LINE

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015222496A (en) * 2014-05-22 2015-12-10 東芝テック株式会社 Information terminal, control program and commodity sales data processor

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102077305B1 (en) * 2013-05-09 2020-02-14 삼성전자 주식회사 Method and apparatus for providing contents including augmented reality information

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015222496A (en) * 2014-05-22 2015-12-10 東芝テック株式会社 Information terminal, control program and commodity sales data processor

Also Published As

Publication number Publication date
KR20190081178A (en) 2019-07-09

Similar Documents

Publication Publication Date Title
KR102497683B1 (en) Method, device, device and storage medium for controlling multiple virtual characters
JP5538667B2 (en) Position / orientation measuring apparatus and control method thereof
CN111145352A (en) House live-action picture display method and device, terminal equipment and storage medium
US9268410B2 (en) Image processing device, image processing method, and program
JP5093053B2 (en) Electronic camera
KR101330805B1 (en) Apparatus and Method for Providing Augmented Reality
US9412202B2 (en) Client terminal, server, and medium for providing a view from an indicated position
US9392248B2 (en) Dynamic POV composite 3D video system
KR102262812B1 (en) Support for augmented reality software applications
JP2006244329A (en) Portable terminal, information processor, and system
CN102171726B (en) Information processing device, information processing method, program, and information storage medium
KR20120054901A (en) Apparatus and method for providing augmented reality user interface
KR102347586B1 (en) Method for providing augmented reality user interface
EP2565848A2 (en) Program, information processing apparatus, information processing system, and information processing method
KR20160073025A (en) Object generation apparatus and method of based augmented reality using actual measured
KR20120017783A (en) Method and apparatus for presenting location information on augmented reality
US20220329770A1 (en) Information processing apparatus, video generation method and program
JP2021520577A (en) Image processing methods and devices, electronic devices and storage media
KR102264754B1 (en) Device and method for providing augmented reality user interface
US20240087157A1 (en) Image processing method, recording medium, image processing apparatus, and image processing system
KR102268797B1 (en) Syetem and method for providing augmented reality user interface
KR102263468B1 (en) System and method for providing augmented reality user interface
CN112995491A (en) Video generation method and device, electronic equipment and computer storage medium
CN108932055B (en) Method and equipment for enhancing reality content
KR102268798B1 (en) System and method for providing augmented reality user interface

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant