KR20210112816A - Server, apparatus and method for providing argumented reality service - Google Patents

Server, apparatus and method for providing argumented reality service Download PDF

Info

Publication number
KR20210112816A
KR20210112816A KR1020200028323A KR20200028323A KR20210112816A KR 20210112816 A KR20210112816 A KR 20210112816A KR 1020200028323 A KR1020200028323 A KR 1020200028323A KR 20200028323 A KR20200028323 A KR 20200028323A KR 20210112816 A KR20210112816 A KR 20210112816A
Authority
KR
South Korea
Prior art keywords
target
augmented reality
target object
marker
reality service
Prior art date
Application number
KR1020200028323A
Other languages
Korean (ko)
Inventor
정인철
김희정
박재완
Original Assignee
주식회사 맥스트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 맥스트 filed Critical 주식회사 맥스트
Priority to KR1020200028323A priority Critical patent/KR20210112816A/en
Publication of KR20210112816A publication Critical patent/KR20210112816A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4722End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content
    • H04N21/4725End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content using interactive regions of the image, e.g. hot spots
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/06009Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
    • G06K19/06037Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking multi-dimensional coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47217End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Databases & Information Systems (AREA)
  • Tourism & Hospitality (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

A server, apparatus and method for providing an augmented reality service are disclosed. A server for providing an augmented reality service according to an embodiment includes: a marker generating part for generating a marker for a target object; a content management part for storing one or more target images for the target object and one or more contents authored in each of the one or more target images; and a content providing part for receiving a content request for the target object from a user terminal recognizing the marker, and transmitting the one or more target images and one or more contents to the user terminal.

Description

증강 현실 서비스 제공 서버, 장치 및 방법{SERVER, APPARATUS AND METHOD FOR PROVIDING ARGUMENTED REALITY SERVICE}Server, apparatus and method for providing augmented reality service {SERVER, APPARATUS AND METHOD FOR PROVIDING ARGUMENTED REALITY SERVICE}

개시되는 실시예들은 증강 현실 기술과 관련된다. The disclosed embodiments relate to augmented reality technology.

종래에는 현실 사물에 정합되는 증강 현실 기술을 구현하려는 경우, 증강 현실을 적용하려는 대상 사물을 사전에 학습하고 애플리케이션에 넣어 두어야 한다. 따라서, 종래에는 증강 현실을 확대 적용하기 위해서 다시 개발을 진행하고 학습을 새로 해야 하는 문제가 있다. 즉, 종래의 기술은 증강 현실을 새로운 사물에 확대 적용하기 어렵다.In the prior art, if you want to implement augmented reality technology that matches a real object, you need to learn in advance the target object to which the augmented reality is to be applied and put it in an application. Therefore, in the prior art, there is a problem in that in order to expand and apply augmented reality, it is necessary to re-develop and re-learning. That is, it is difficult to expand and apply augmented reality to new objects in the prior art.

또한, 증강 현실을 적용하기 위한 사물들의 외관이 유사한 경우, 외관이 유사한 사물들을 촬영한 타깃 이미지 만으로 해당 사물들을 구분하기 어려운 경우가 있다. 따라서, 종래 기술은 증강 현실 콘텐츠를 관리하는데 어려움이 있었다. In addition, when objects to which augmented reality is applied have similar appearances, it may be difficult to distinguish the objects only with target images obtained by photographing objects having similar appearances. Therefore, the prior art had difficulties in managing augmented reality content.

구체적으로, 종래에 증강 현실을 구현하는 방법은 아래와 같다.Specifically, a method for implementing augmented reality in the prior art is as follows.

1) 학습1) Learning

증강 현실을 구현하고 싶은 대상 사물을 학습하여 학습 파일을 만든다.Create a learning file by learning the target object to implement augmented reality.

2) 콘텐츠 배치2) Content placement

유니티(UNITY)에서 학습 파일을 로딩하여 대상 사물 위에 콘텐츠를 배치한다.Load the training file from Unity and place the content on the target object.

3) 개발3) development

애플리케이션을 빌드한다.Build the application.

4) 타깃 인식4) Target recognition

애플리케이션을 실행하여 학습한 대상 사물을 비춘다.Run the application to illuminate the learned target object.

5) 콘텐츠 표시5) Show content

타깃 이미지 위에 배치된 콘텐츠가 대상 사물에 추적되어 표시된다.Content placed on the target image is tracked and displayed on the target object.

이와 같이 종래 기술은 증강 현실을 구현하고 확대 적용하기 위해서 유니티라는 전문가용 저작 툴에 대한 학습이 필요하다. 또한, 종래 기술은 애플리케이션을 다시 빌드해야 하기 때문에 개발적인 지식이 없는 일반 사용자가 증강 현실을 확대 적용할 수 없는 문제가 있다.As described above, in the prior art, it is necessary to learn about a professional authoring tool called Unity in order to implement and expand augmented reality. In addition, since the prior art needs to re-build the application, there is a problem in that a general user without developmental knowledge cannot expand and apply augmented reality.

또한, 종래 기술은 다수의 타깃 이미지를 애플리케이션에 등록하게 되면 단말기의 처리 속도가 느려지기 때문에 일정 개수 이상 대상 사물을 확대 적용할 수 없는 기술적인 한계가 있다.In addition, when a plurality of target images are registered in an application, the prior art has a technical limitation in that it is not possible to enlarge and apply more than a certain number of target objects because the processing speed of the terminal is slowed.

한국등록특허 제10-1040253호 (2011.06.09. 공고)Korean Patent Registration No. 10-1040253 (June 9, 2011 Announcement)

개시되는 실시예들은 증강 현실 서비스 제공 서버, 장치 및 방법을 제공하기 위한 것으로, 마커로 타깃 객체를 식별하고, 타깃 객체에 대한 타깃 이미지를 인식하여 증강 현실 콘텐츠를 표시하기 위한 것이다.Disclosed embodiments are to provide an augmented reality service providing server, apparatus, and method, for identifying a target object with a marker, recognizing a target image for the target object, and displaying augmented reality content.

일 실시예에 따른 증강 현실 서비스 제공 서버는, 타깃 객체에 대한 마커를 생성하는 마커 생성부; 상기 타깃 객체에 대한 하나 이상의 타깃 이미지 및 상기 하나 이상의 타깃 이미지 각각에 저작된 하나 이상의 콘텐츠를 저장하는 콘텐츠 관리부; 및 상기 마커를 인식한 사용자 단말로부터 상기 타깃 객체에 대한 콘텐츠 요청을 수신하고, 상기 하나 이상의 타깃 이미지 및 하나 이상의 콘텐츠를 상기 사용자 단말로 전송하는 콘텐츠 제공부를 포함한다.An augmented reality service providing server according to an embodiment includes: a marker generating unit generating a marker for a target object; a content management unit for storing one or more target images for the target object and one or more contents authored in each of the one or more target images; and a content providing unit for receiving a content request for the target object from the user terminal recognizing the marker, and transmitting the one or more target images and one or more contents to the user terminal.

상기 마커 생성부는, 상기 타깃 객체에 대한 식별 정보에 기초하여 상기 마커를 생성할 수 있다.The marker generator may generate the marker based on identification information on the target object.

상기 하나 이상의 콘텐츠는, 각각 타깃 이미지에 대한 사용자의 터치 동작 및 드래그 동작 중 적어도 하나에 기초하여 저작될 수 있다.The one or more contents may be authored based on at least one of a user's touch operation and a drag operation on the target image, respectively.

상기 하나 이상의 콘텐츠는, 각각 타깃 이미지 내 상기 터치 동작 및 드래그 동작 중 적어도 하나에 의해 선택된 위치에 저작될 수 있다.The one or more contents may be authored at a location selected by at least one of the touch operation and the drag operation in the target image, respectively.

일 실시예에 따른 증강 현실 서비스 제공 서버에 의해 수행되는 증강 현실 서비스 제공 방법은, 타깃 객체에 대한 마커를 생성하는 단계; 상기 마커를 인식한 사용자 단말로부터 상기 타깃 객체에 대한 콘텐츠 요청을 수신하는 단계; 및 상기 타깃 객체에 대한 하나 이상의 타깃 이미지 및 상기 하나 이상의 타깃 이미지 각각에 저작된 하나 이상의 콘텐츠를 상기 사용자 단말로 전송하는 단계를 포함한다.An augmented reality service providing method performed by an augmented reality service providing server according to an embodiment includes: generating a marker for a target object; receiving a content request for the target object from a user terminal recognizing the marker; and transmitting one or more target images for the target object and one or more contents authored to each of the one or more target images to the user terminal.

상기 생성하는 단계는, 상기 타깃 객체에 대한 식별 정보에 기초하여 상기 마커를 생성할 수 있다.The generating may include generating the marker based on identification information on the target object.

상기 하나 이상의 콘텐츠는, 각각 타깃 이미지에 대한 사용자의 터치 동작 및 드래그 동작 중 적어도 하나에 기초하여 저작될 수 있다.The one or more contents may be authored based on at least one of a user's touch operation and a drag operation on the target image, respectively.

상기 하나 이상의 콘텐츠는, 각각 타깃 이미지 내 상기 터치 동작 및 드래그 동작 중 적어도 하나에 의해 선택된 위치에 저작될 수 있다.The one or more contents may be authored at a location selected by at least one of the touch operation and the drag operation in the target image, respectively.

일 실시예에 따른 증강 현실 서비스 제공 장치는, 이미지에 포함된 마커를 인식하여 타깃 객체를 식별하는 객체 식별부; 증강 현실 서비스 제공 서버로 상기 식별된 타깃 객체에 대한 콘텐츠를 요청하고, 상기 증강 현실 서비스 제공 서버로부터 상기 타깃 객체에 대한 하나 이상의 타깃 이미지 및 상기 하나 이상의 타깃 이미지 각각에 저작된 하나 이상의 콘텐츠를 수신하는 콘텐츠 수신부; 현재 촬영 이미지에서 상기 하나 이상의 타깃 이미지 중 적어도 하나를 인식하는 타깃 이미지 인식부; 및 상기 인식된 타깃 이미지에 저작된 하나 이상의 콘텐츠를 상기 현재 촬영 이미지 상에 표시하는 콘텐츠 표시부를 포함한다.An augmented reality service providing apparatus according to an embodiment includes: an object identification unit for recognizing a marker included in an image to identify a target object; Requesting content for the identified target object to an augmented reality service providing server, and receiving one or more target images for the target object and one or more contents authored on each of the one or more target images from the augmented reality service providing server content receiving unit; a target image recognition unit for recognizing at least one of the one or more target images from a currently captured image; and a content display unit displaying one or more contents authored on the recognized target image on the currently captured image.

상기 객체 식별부는, 상기 마커를 인식하여 획득된 식별 정보에 기초하여 상기 타깃 객체를 식별할 수 있다.The object identification unit may identify the target object based on identification information obtained by recognizing the marker.

상기 콘텐츠 표시부는, 상기 현재 촬영 이미지에서 상기 인식된 타깃 이미지를 추적하면서 상기 인식된 타깃 이미지에 저작된 하나 이상의 콘텐츠를 표시할 수 있다.The content display unit may display one or more contents authored on the recognized target image while tracking the recognized target image in the currently captured image.

일 실시예에 따른 증강 현실 서비스 제공 방법은, 이미지에 포함된 마커를 인식하는 단계; 타깃 객체를 식별하는 단계; 증강 현실 서비스 제공 서버로 상기 식별된 타깃 객체에 대한 콘텐츠를 요청하는 단계; 상기 증강 현실 서비스 제공 서버로부터 상기 타깃 객체에 대한 하나 이상의 타깃 이미지 및 상기 하나 이상의 타깃 이미지 각각에 저작된 하나 이상의 콘텐츠를 수신하는 단계; 현재 촬영 이미지에서 상기 하나 이상의 타깃 이미지 중 적어도 하나를 인식하는 단계; 및 상기 인식된 타깃 이미지에 저작된 하나 이상의 콘텐츠를 상기 현재 촬영 이미지 상에 표시하는 단계를 포함할 수 있다.A method of providing an augmented reality service according to an embodiment includes: recognizing a marker included in an image; identifying a target object; requesting content for the identified target object to an augmented reality service providing server; receiving, from the augmented reality service providing server, one or more target images of the target object and one or more contents authored in each of the one or more target images; recognizing at least one of the one or more target images from a currently captured image; and displaying one or more contents authored on the recognized target image on the currently captured image.

상기 식별하는 단계는, 상기 마커를 인식하여 획득된 식별 정보에 기초하여 상기 타깃 객체를 식별할 수 있다.The identifying may include identifying the target object based on identification information obtained by recognizing the marker.

상기 표시하는 단계는, 상기 현재 촬영 이미지에서 상기 인식된 타깃 이미지를 추적하면서 상기 인식된 타깃 이미지에 저작된 하나 이상의 콘텐츠를 표시할 수 있다.The displaying may include displaying one or more contents authored on the recognized target image while tracking the recognized target image in the currently captured image.

개시되는 실시예들에 따르면, 마커를 인식하여 타깃 객체를 식별하고, 타깃 객체에 대한 타깃 이미지를 인식하여 콘텐츠를 표시함으로써, 외관이 유사한 객체들이 다수 존재하더라도 각 객체에 대해 사용자가 의도한 증강 현실 콘텐츠를 증강시킬 수 있으며 타깃 객체 별 증강 현실 콘텐츠 관리가 용이하다. According to the disclosed embodiments, a target object is identified by recognizing a marker, and content is displayed by recognizing a target image for the target object. Content can be augmented, and augmented reality content management for each target object is easy.

또한, 개시되는 실시예들에 따르면, 마커를 인식하여 식별된 타깃 객체에 대한 하나 이상의 타깃 이미지를 수신함으로써, 사용자가 원하는 타깃 객체에 대한 타깃 이미지만 다운로드 받아 타깃 이미지가 많을 경우 사용자 단말이 느려지는 문제를 해결할 수 있다. 이에 따라, 증강 현실을 구현하려는 타깃 객체를 제한없이 확대 적용할 수 있다.In addition, according to the disclosed embodiments, by receiving one or more target images for the identified target object by recognizing the marker, the user downloads only the target image for the target object desired by the user, and when there are many target images, the user terminal is slowed down. can solve the problem Accordingly, it is possible to enlarge and apply a target object for implementing augmented reality without limitation.

또한, 개시되는 실시예들에 따르면, 타깃 객체에 대한 타깃 이미지를 저장하고 타깃 이미지에 대한 사용자의 터치 동작 및 드래그 동작 중 적어도 하나에 기초하여 콘텐츠를 저작함으로써, 개발적인 지식이 없는 일반 사용자도 증강 현실 콘텐츠를 쉽게 개발할 수 있다. In addition, according to the disclosed embodiments, by storing a target image of a target object and authoring content based on at least one of a user's touch action and a drag action on the target image, general users without developmental knowledge are also enhanced. You can easily develop real content.

도 1은 일 실시예에 따른 증강 현실 서비스 제공 시스템의 구성도
도 2는 일 실시예에 따른 증강 현실 서비스 제공 서버의 구성도
도 3은 일 실시예에 따른 마커의 예시도
도 4는 일 실시예에 따른 저장된 타깃 이미지의 예시도
도 5는 일 실시예에 따른 콘텐츠를 저작하는 예를 설명하기 위한 도면
도 6은 일 실시예에 따른 증강 현실 서비스 제공 장치의 구성도
도 7은 일 실시예에 따른 수신된 타깃 이미지의 예시도
도 8은 일 실시예에 따른 콘텐츠를 표시하는 예를 설명하기 위한 도면
도 9는 일 실시예에 따른 증강 현실 서비스 제공 서버에서 수행되는 증강 현실 서비스 제공 방법의 순서도
도 10은 일 실시예에 따른 증강 현실 서비스 제공 장치에서 수행되는 증강 현실 서비스 제공 방법의 순서도
도 11은 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 장치를 포함하는 컴퓨팅 환경을 예시하여 설명하기 위한 블록도
1 is a block diagram of an augmented reality service providing system according to an embodiment;
2 is a configuration diagram of an augmented reality service providing server according to an embodiment;
3 is an exemplary view of a marker according to an embodiment;
4 is an exemplary view of a stored target image according to an embodiment;
5 is a diagram for explaining an example of authoring content according to an embodiment;
6 is a block diagram of an apparatus for providing an augmented reality service according to an embodiment;
7 is an exemplary view of a received target image according to an embodiment;
8 is a diagram for explaining an example of displaying content according to an embodiment;
9 is a flowchart of an augmented reality service providing method performed by an augmented reality service providing server according to an embodiment;
10 is a flowchart of a method for providing an augmented reality service performed by an apparatus for providing an augmented reality service according to an embodiment;
11 is a block diagram illustrating and describing a computing environment including a computing device suitable for use in example embodiments.

이하, 도면을 참조하여 구체적인 실시형태를 설명하기로 한다. 이하의 상세한 설명은 본 명세서에서 기술된 방법, 장치 및/또는 시스템에 대한 포괄적인 이해를 돕기 위해 제공된다. 그러나 이는 예시에 불과하며 이에 제한되지 않는다.Hereinafter, specific embodiments will be described with reference to the drawings. DETAILED DESCRIPTION The following detailed description is provided to provide a comprehensive understanding of the methods, devices, and/or systems described herein. However, this is only an example and is not limited thereto.

실시예들을 설명함에 있어서, 관련된 공지기술에 대한 구체적인 설명이 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고, 후술되는 용어들은 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 상세한 설명에서 사용되는 용어는 단지 실시예들을 기술하기 위한 것이며, 결코 제한적이어서는 안 된다. 명확하게 달리 사용되지 않는 한, 단수 형태의 표현은 복수 형태의 의미를 포함한다. 또한, "포함" 또는 "구비"와 같은 표현은 어떤 특성들, 숫자들, 단계들, 동작들, 요소들, 이들의 일부 또는 조합을 가리키기 위한 것이며, 기술된 것 이외에 하나 또는 그 이상의 다른 특성, 숫자, 단계, 동작, 요소, 이들의 일부 또는 조합의 존재 또는 가능성을 배제하도록 해석되어서는 안 된다.In describing the embodiments, if it is determined that a detailed description of a related known technology may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. And, the terms to be described later are terms defined in consideration of functions, which may vary depending on the intention or custom of the user or operator. Therefore, the definition should be made based on the content throughout this specification. The terminology used in the detailed description is for the purpose of describing the embodiments only, and should in no way be limiting. Unless explicitly used otherwise, expressions in the singular include the meaning of the plural. Also, expressions such as “comprising” or “comprising” are intended to indicate certain features, numbers, steps, acts, elements, some or combination thereof, and one or more other features than those described. , should not be construed to exclude the presence or possibility of any number, step, action, element, or any part or combination thereof.

도 1은 일 실시예에 따른 증강 현실 서비스 제공 시스템(100)의 구성도이다. 1 is a block diagram of an augmented reality service providing system 100 according to an embodiment.

도 1을 참조하면, 증강 현실 서비스 제공 시스템(100)은 증강 현실 서비스 제공 서버(110) 및 사용자 단말(130)을 포함한다.Referring to FIG. 1 , the augmented reality service providing system 100 includes an augmented reality service providing server 110 and a user terminal 130 .

일 실시예에서, 증강 현실 서비스 제공 시스템(100)은 사용자 단말(130)에 설치된 증강 현실 애플리케이션을 통해 사용자 단말(130)로 증강 현실 서비스를 제공할 수 있다. 이때, 증강 현실 애플리케이션은 증강 현실 서비스 제공 서버(110)와 연동하여 증강 현실 서비스를 제공하기 위한 프로그램일 수 있다. 예를 들어, 증강 현실 애플리케이션은 증강 현실 서비스 제공 서버(110)와 통신하면서 증강 현실을 구현하는데 이용되는 타깃 이미지 및 콘텐츠를 요청하고, 증강 현실 서비스 제공 서버(110)로부터 제공받은 타깃 이미지 및 콘텐츠를 사용자 단말(130)로 제공하는 역할을 수행하며, 콘텐츠 디스플레이, 콘텐츠에 대한 사용자 명령 처리 등 다양한 역할을 수행할 수 있다.In an embodiment, the augmented reality service providing system 100 may provide an augmented reality service to the user terminal 130 through an augmented reality application installed in the user terminal 130 . In this case, the augmented reality application may be a program for providing an augmented reality service in conjunction with the augmented reality service providing server 110 . For example, the augmented reality application requests a target image and content used to implement augmented reality while communicating with the augmented reality service providing server 110 , and receives the target image and content provided from the augmented reality service providing server 110 . It performs a role of providing to the user terminal 130 and may perform various roles such as content display and user command processing for content.

증강 현실 서비스 제공 서버(110)는 타깃 객체에 대한 식별 정보, 마커, 타깃 이미지, 콘텐츠 등 증강 현실을 구현하는데 이용되는 각종 정보를 저장할 수 있다. The augmented reality service providing server 110 may store various types of information used to implement augmented reality, such as identification information on a target object, a marker, a target image, and content.

이때, 마커는 타겟 객체 및 타겟 객체에 대응되는 증강 현실 콘텐츠를 식별하기 위한 이용되는 것으로, 예를 들어, QR 코드, 바코드 등과 같이 특정한 패턴을 가진 도형의 형태로 구성될 수 있다.In this case, the marker is used to identify a target object and augmented reality content corresponding to the target object, and may be configured in the form of a figure having a specific pattern, such as a QR code, a barcode, or the like.

이때, 타깃 객체는 증강 현실을 구현하려는 대상인 객체이다.In this case, the target object is an object for which augmented reality is to be implemented.

타깃 이미지는 타깃 객체를 촬영한 이미지이다. The target image is an image obtained by photographing the target object.

예를 들어, 증강 현실 서비스 제공 서버(110)는 웹 사이트를 통해 사용자로부터 증강 현실을 구현하는데 이용되는 각종 정보를 입력받거나, 사용자에게 상기 각종 정보를 제공할 수 있다. 이때, 사용자는 사용자 단말(130)을 통해 증강 현실 서비스 제공 서버(110)와 연결된 웹 사이트를 접속하거나, 사용자 단말(130) 이외에 디스플레이 수단, 음성처리 수단, 정보처리 수단, 데이터 통신 수단 등을 구비한 다양한 형태의 장치들을 통해 웹 사이트를 접속할 수 있다.For example, the augmented reality service providing server 110 may receive various types of information used to implement augmented reality from a user through a website, or may provide the various types of information to the user. In this case, the user accesses a website connected to the augmented reality service providing server 110 through the user terminal 130 or has a display means, a voice processing means, an information processing means, a data communication means, etc. in addition to the user terminal 130 . A website can be accessed through a variety of devices.

또한, 증강 현실 서비스 제공 서버(110)는 사용자 단말(130)과 연동하여 증강 현실 서비스를 제공할 수 있다. 예를 들어, 증강 현실 서비스 제공 서버(110)는 사용자 단말(130)로부터 타깃 객체에 대한 콘텐츠 요청을 수신하는 경우, 사용자 단말(130)로 타깃 객체에 대한 타깃 이미지 및 타깃 이미지에 저작된 콘텐츠를 제공할 수 있다.In addition, the augmented reality service providing server 110 may provide an augmented reality service in conjunction with the user terminal 130 . For example, when the augmented reality service providing server 110 receives a content request for the target object from the user terminal 130 , the augmented reality service providing server 110 provides the target image for the target object and content authored on the target image to the user terminal 130 . can provide

사용자 단말(130)은 예를 들어, 스마트폰과 같이 디스플레이 수단, 음성처리 수단, 정보처리 수단 및 유무선 네트워크를 통한 데이터 통신 수단을 구비한 다양한 형태의 장치들을 포함할 수 있다. 또한, 사용자 단말(130)은 카메라와 같은 촬영 수단을 구비할 수 있다.The user terminal 130 may include various types of devices having a display means, a voice processing means, an information processing means, and a data communication means through a wired/wireless network, such as, for example, a smart phone. In addition, the user terminal 130 may be provided with a photographing means such as a camera.

사용자 단말(130)은 증강 현실 서비스 제공 서버(110)와 연동된 증강 현실 애플리케이션을 통해 사용자에게 증강 현실 서비스를 제공할 수 있다. 또한, 사용자 단말(130)은 디스플레이, 스피커 등과 같은 출력 수단을 이용하여 증강 현실 서비스 애플리케이션을 통해 제공받은 콘텐츠를 출력할 수 있고, 터치 스크린, 키보드 등과 같은 입력 수단을 이용하여 사용자로부터 콘텐츠에 대한 사용자 명령을 입력받을 수 있다.The user terminal 130 may provide the augmented reality service to the user through the augmented reality application interlocked with the augmented reality service providing server 110 . In addition, the user terminal 130 may output the content provided through the augmented reality service application using an output means such as a display, a speaker, etc., and use an input means such as a touch screen or a keyboard to view the content from the user. command can be entered.

예를 들어, 사용자 단말(130)은 카메라와 같은 촬영 수단을 이용하여 촬영된 이미지에 포함된 마커를 인식하고, 증강 현실 서비스 제공 서버(110)에게 인식된 마커에 대응되는 타깃 객체에 대한 콘텐츠를 요청할 수 있다. 또한, 사용자 단말(130)은 증강 현실 애플리케이션을 통해 증강 현실 서비스 제공 서버(110)로부터 타깃 객체에 대한 타깃 이미지 및 타깃 이미지에 저작된 콘텐츠를 제공받고, 제공받은 타깃 이미지를 인식하여 현재 촬영 중인 이미지 상에 콘텐츠를 표시할 수 있다.For example, the user terminal 130 recognizes a marker included in a photographed image using a photographing means such as a camera, and provides the augmented reality service providing server 110 with content for a target object corresponding to the recognized marker. you can request In addition, the user terminal 130 receives the target image for the target object and the content authored on the target image from the augmented reality service providing server 110 through the augmented reality application, recognizes the received target image, and recognizes the image currently being photographed. content can be displayed on the

도 2는 일 실시예에 따른 증강 현실 서비스 제공 서버(110)의 구성도이다.2 is a configuration diagram of an augmented reality service providing server 110 according to an embodiment.

도 2를 참조하면, 증강 현실 서비스 제공 서버(110)는 마커 생성부(111), 콘텐츠 관리부(113) 및 콘텐츠 제공부(115)를 포함한다.Referring to FIG. 2 , the augmented reality service providing server 110 includes a marker generating unit 111 , a content management unit 113 , and a content providing unit 115 .

일 실시예에서, 마커 생성부(111), 콘텐츠 관리부(113) 및 콘텐츠 제공부(115)는 물리적으로 구분된 하나 이상의 장치를 이용하여 구현되거나, 하나 이상의 프로세서 또는 하나 이상의 프로세서 및 소프트웨어의 결합에 의해 구현될 수 있으며, 도시된 예와 달리 구체적 동작에 있어 명확히 구분되지 않을 수 있다.In one embodiment, the marker generating unit 111, the content management unit 113, and the content providing unit 115 are implemented using one or more physically separated devices, or one or more processors or a combination of one or more processors and software. may be implemented, and unlike the illustrated example, specific operations may not be clearly distinguished.

마커 생성부(111)는 타깃 객체에 대한 마커를 생성한다.The marker generator 111 generates a marker for the target object.

예를 들어, 사용자는 증강 현실을 구현하려는 객체를 증강 현실 서비스 제공 서버(110)에 타깃 객체로 등록할 수 있다. 이때, 사용자가 증강 현실 서비스 제공 서버(110)와 연결된 웹 사이트를 통해 타깃 객체에 대한 등록을 요청하는 경우, 마커 생성부(111)는 타깃 객체에 대한 마커를 생성할 수 있다.For example, the user may register an object to implement augmented reality as a target object in the augmented reality service providing server 110 . In this case, when the user requests registration of the target object through the website connected to the augmented reality service providing server 110 , the marker generator 111 may generate a marker for the target object.

일 실시예에서, 도 3에 도시된 바와 같이, 마커 생성부(111)는 타깃 객체에 대해 QR 코드 형태의 마커를 생성할 수 있다. 다만, 도시된 도 3에서는 마커가 QR 코드인 것으로 예시하였으나, 마커의 종류는 QR 코드로 한정되지 않으며 다양할 수 있다.In an embodiment, as shown in FIG. 3 , the marker generator 111 may generate a marker in the form of a QR code for the target object. However, in FIG. 3 illustrated, the marker is illustrated as a QR code, but the type of the marker is not limited to the QR code and may vary.

일 실시예에서, 마커 생성부(111)는 타깃 객체에 대한 식별 정보에 기초하여 마커를 생성할 수 있다.In an embodiment, the marker generator 111 may generate a marker based on identification information on the target object.

예를 들어, 마커 생성부(111)는 사용자로부터 타깃 객체에 대한 식별 정보를 입력받고, 입력받은 식별 정보에 기초하여 마커를 생성할 수 있다. For example, the marker generator 111 may receive identification information on the target object from the user, and generate a marker based on the received identification information.

다만, 상술한 예에서는 사용자로부터 타깃 객체에 대한 식별 정보를 입력받는 것으로 설명하였으나, 이는 일 실시예에 불과하며, 타깃 객체에 대한 식별 정보를 생성하는 방식은 다양할 수 있다. 예를 들어, 마커 생성부(111)는 미리 설정된 알고리즘에 따라 타깃 객체에 대한 식별 정보를 생성하고, 생성된 식별 정보에 기초하여 마커를 생성할 수 있다. However, in the above-described example, it has been described that the identification information for the target object is received from the user, but this is only an exemplary embodiment, and there may be various methods for generating the identification information on the target object. For example, the marker generator 111 may generate identification information on the target object according to a preset algorithm, and generate a marker based on the generated identification information.

한편, 사용자는 생성된 마커를 타깃 객체에 부착시킬 수 있으며, 후술할 바와 같이 타깃 객체에 부착된 마커는 타깃 객체를 식별하기 위해 이용될 수 있다.Meanwhile, the user may attach the generated marker to the target object, and as will be described later, the marker attached to the target object may be used to identify the target object.

콘텐츠 관리부(113)는 타깃 객체에 대한 하나 이상의 타깃 이미지 및 하나 이상의 타깃 이미지 각각에 저작된 하나 이상의 콘텐츠를 저장한다.The content management unit 113 stores one or more target images for the target object and one or more contents authored to each of the one or more target images.

이때, 하나 이상의 타깃 이미지는 타깃 객체를 서로 상이한 각도에서 촬영하여 획득된 이미지일 수 있다. 예를 들어, 하나 이상의 타깃 이미지는 타깃 객체의 전면, 후면, 좌면, 우면 등을 촬영하여 획득된 이미지일 수 있다. 따라서, 타깃 객체의 모든 면이 증강 현실을 구현하기 위한 대상이 될 수 있다.In this case, the one or more target images may be images obtained by photographing the target object from different angles. For example, the one or more target images may be images obtained by photographing the front, rear, left, and right surfaces of the target object. Accordingly, all sides of the target object may be targets for implementing augmented reality.

일 실시예에서, 콘텐츠 관리부(113)는 타깃 객체에 대한 하나 이상의 타깃 이미지 및 하나 이상의 타깃 이미지 각각에 저작된 하나 이상의 콘텐츠를 식별 정보와 매칭시켜 저장할 수 있다.In an embodiment, the content management unit 113 may match one or more target images for a target object and one or more contents authored to each of the one or more target images with identification information and store them.

예를 들어, 도 4에 도시된 바와 같이, 사용자는 증강 현실 서비스 제공 서버(110)와 연결된 웹 사이트를 통해 타깃 객체에 대한 하나 이상의 타깃 이미지(410)를 등록할 수 있다. 이때, 콘텐츠 관리부(113)는 사용자에 의해 입력된 타깃 객체에 대한 하나 이상의 타깃 이미지를 타깃 객체에 대한 식별 정보와 매칭시켜 저장할 수 있다. For example, as shown in FIG. 4 , a user may register one or more target images 410 for a target object through a website connected to the augmented reality service providing server 110 . In this case, the content manager 113 may match and store one or more target images of the target object input by the user with identification information of the target object.

또한, 사용자는 증강 현실 서비스 제공 서버(110)와 연결된 웹 사이트를 통해 하나 이상의 타깃 이미지 각각에 대해 하나 이상의 콘텐츠를 저작할 수 있다. In addition, the user may author one or more contents for each of one or more target images through a website connected to the augmented reality service providing server 110 .

예를 들어, 도 5에 도시된 바와 같이, 증강 현실 서비스 제공 서버(110)는 웹 사이트를 통해 사용자에게 콘텐츠 저작을 위한 사용자 인터페이스(500)를 제공할 수 있다. 이때, 사용자 인터페이스(500)는 타깃 이미지 목록(510), 콘텐츠를 저작하려는 타깃 이미지(520), 콘텐츠 목록(530) 등을 포함할 수 있다. 이때, 콘텐츠는 텍스트 형태의 콘텐츠(531), 이미지 형태의 콘텐츠(533) 등 다양한 형태의 콘텐츠를 포함할 수 있다.For example, as shown in FIG. 5 , the augmented reality service providing server 110 may provide a user interface 500 for content authoring to a user through a website. In this case, the user interface 500 may include a target image list 510 , a target image 520 for creating content, a content list 530 , and the like. In this case, the content may include various types of content, such as text content 531 and image content 533 .

일 실시예에서, 하나 이상의 콘텐츠는 각각 타깃 이미지에 대한 사용자의 터치 동작 및 드래그 동작 중 적어도 하나에 기초하여 저작될 수 있다. 구체적으로, 사용자는 하나 이상의 타깃 이미지 중 콘텐츠를 저작하기 위한 타깃 이미지를 선택할 수 있다. 이후, 사용자는 터치스크린, 마우스 등과 같은 입력 수단을 이용하여 터치 동작, 드래그 동작 등을 통해 타깃 이미지 내 원하는 위치에 콘텐츠를 자유롭게 배치할 수 있다. 이때, 하나 이상의 콘텐츠는 각각 타깃 이미지 내 사용자의 터치 동작 및 드래그 동작 중 적어도 하나에 의해 선택된 위치에 저작될 수 있다. 이후, 콘텐츠 관리부(113)는 타깃 이미지에 저작된 콘텐츠의 내용, 형태, 위치 등과 같은 콘텐츠의 저작 정보를 저장할 수 있다.In an embodiment, the one or more contents may be authored based on at least one of a user's touch operation and a drag operation on the target image, respectively. Specifically, the user may select a target image for authoring content among one or more target images. Thereafter, the user may freely arrange the content at a desired position in the target image through a touch operation, a drag operation, or the like using an input means such as a touch screen or a mouse. In this case, each of the one or more contents may be authored at a location selected by at least one of a user's touch operation and a drag operation within the target image. Thereafter, the content management unit 113 may store content authoring information such as content, form, and location of the content authored in the target image.

콘텐츠 제공부(115)는 마커를 인식한 사용자 단말(130)로부터 타깃 객체에 대한 콘텐츠 요청을 수신하고, 타깃 객체에 대한 하나 이상의 타깃 이미지 및 하나 이상의 타깃 이미지 각각에 저작된 하나 이상의 콘텐츠를 사용자 단말(130)로 전송한다.The content providing unit 115 receives a content request for a target object from the user terminal 130 recognizing the marker, and provides one or more target images for the target object and one or more contents authored on each of the one or more target images to the user terminal. (130).

예를 들어, 콘텐츠 제공부(115)는 사용자 단말(130)로부터 타깃 객체에 대한 콘텐츠 요청을 수신하는 경우, 타깃 객체에 대한 식별 정보와 매칭되어 저장된 하나 이상의 타깃 이미지 및 하나 이상의 타깃 이미지 각각에 저작된 하나 이상의 콘텐츠를 로딩할 수 있다. 이후, 콘텐츠 제공부(115)는 타깃 객체에 대한 하나 이상의 타깃 이미지 및 하나 이상의 타깃 이미지 각각에 저작된 하나 이상의 콘텐츠를 사용자 단말(130)로 전송할 수 있다.For example, when receiving a content request for a target object from the user terminal 130 , the content providing unit 115 authorizes one or more target images and one or more target images stored by matching identification information on the target object. One or more contents can be loaded. Thereafter, the content providing unit 115 may transmit one or more target images of the target object and one or more contents authored to each of the one or more target images to the user terminal 130 .

도 6은 일 실시예에 따른 증강 현실 서비스 제공 장치(200)의 구성도이다.6 is a configuration diagram of an apparatus 200 for providing an augmented reality service according to an embodiment.

도 6에 도시된 증강 현실 서비스 제공 장치(600)는 예를 들어, 도 1에 도시된 사용자 단말(130)에 포함된 일 구성으로 구현될 수 있다.The augmented reality service providing apparatus 600 illustrated in FIG. 6 may be implemented, for example, in a configuration included in the user terminal 130 illustrated in FIG. 1 .

도 6을 참조하면, 증강 현실 서비스 제공 장치(600)는 객체 식별부(610), 콘텐츠 수신부(630), 타깃 이미지 인식부(650) 및 콘텐츠 표시부(670)를 포함한다.Referring to FIG. 6 , the augmented reality service providing apparatus 600 includes an object identification unit 610 , a content receiving unit 630 , a target image recognition unit 650 , and a content display unit 670 .

일 실시예에서, 객체 식별부(610), 콘텐츠 수신부(630), 타깃 이미지 인식부(650) 및 콘텐츠 표시부(670)는 물리적으로 구분된 하나 이상의 장치를 이용하여 구현되거나, 하나 이상의 프로세서 또는 하나 이상의 프로세서 및 소프트웨어의 결합에 의해 구현될 수 있으며, 도시된 예와 달리 구체적 동작에 있어 명확히 구분되지 않을 수 있다.In one embodiment, the object identification unit 610, the content receiving unit 630, the target image recognition unit 650, and the content display unit 670 are implemented using one or more physically separated devices, or one or more processors or one It may be implemented by a combination of the above processor and software, and may not be clearly distinguished in specific operation unlike the illustrated example.

객체 식별부(610)는 이미지에 포함된 마커를 인식하여 타깃 객체를 식별한다.The object identification unit 610 identifies a target object by recognizing a marker included in the image.

예를 들어, 사용자가 촬영 수단을 이용하여 타깃 객체에 부착된 마커를 스캔하는 경우, 객체 식별부(610)는 촬영 수단에 의해 획득된 이미지에 포함된 마커를 인식하여 타깃 객체를 식별할 수 있다.For example, when the user scans a marker attached to the target object using the photographing means, the object identification unit 610 may identify the target object by recognizing the marker included in the image acquired by the photographing means. .

일 실시예에서, 객체 식별부(610)는 마커를 인식하여 획득된 식별 정보에 기초하여 타깃 객체를 식별할 수 있다.In an embodiment, the object identification unit 610 may identify a target object based on identification information obtained by recognizing a marker.

콘텐츠 수신부(630)는 증강 현실 서비스 제공 서버(110)로 식별된 타깃 객체에 대한 콘텐츠를 요청하고, 증강 현실 서비스 제공 서버(110)로부터 타깃 객체에 대한 하나 이상의 타깃 이미지 및 하나 이상의 타깃 이미지 각각에 저작된 하나 이상의 콘텐츠를 수신한다.The content receiving unit 630 requests the content for the target object identified by the augmented reality service providing server 110, and from the augmented reality service providing server 110 to one or more target images and one or more target images for the target object, respectively. Receive one or more authored content.

예를 들어, 도 7에 도시된 바와 같이, 타깃 객체에 부착된 마커를 스캔하여 타깃 객체가 식별되는 경우, 콘텐츠 수신부(630)는 증강 현실 서비스 제공 서버(110)로부터 타깃 객체에 대한 하나 이상의 타깃 이미지 및 하나 이상의 타깃 이미지 각각에 저작된 하나 이상의 콘텐츠를 다운로드 받을 수 있다. 이때, 사용자는 사용자 단말(130)에 구비된 디스플레이를 통해 다운로드된 타깃 이미지를 확인할 수 있다. 또한, 다운로드된 타깃 이미지는 곧바로 학습되어 후술할 타깃 이미지 인식 및 추적에 필요한 학습 파일 형태로 증강 현실 서비스 제공 장치(600)에 저장될 수 있다.For example, as shown in FIG. 7 , when a target object is identified by scanning a marker attached to the target object, the content receiving unit 630 receives one or more targets for the target object from the augmented reality service providing server 110 . One or more content authored on each of the image and the one or more target images may be downloaded. In this case, the user may check the downloaded target image through the display provided in the user terminal 130 . In addition, the downloaded target image may be immediately learned and stored in the augmented reality service providing apparatus 600 in the form of a learning file required for target image recognition and tracking, which will be described later.

타깃 이미지 인식부(650)는 현재 촬영 이미지에서 하나 이상의 타깃 이미지 중 적어도 하나를 인식한다.The target image recognition unit 650 recognizes at least one of one or more target images in the current captured image.

예를 들어, 타깃 이미지 인식부(650)는 기 정의된 이미지 인식 알고리즘, 이미지 인식을 위한 딥러닝 모델 등을 이용하여 타깃 이미지를 인식할 수 있다.For example, the target image recognition unit 650 may recognize the target image using a predefined image recognition algorithm, a deep learning model for image recognition, or the like.

객체 표시부(670)는 인식된 타깃 이미지에 저작된 하나 이상의 콘텐츠를 현재 촬영 이미지 상에 표시한다. The object display unit 670 displays one or more contents authored on the recognized target image on the currently captured image.

예를 들어, 도 8에 도시된 바와 같이, 현재 촬영 이미지(800)에서 특정 타깃 이미지(810)가 인식되면, 객체 표시부(670)는 인식된 타깃 이미지(810)에 저작된 하나 이상의 콘텐츠를 현재 촬영 이미지(800)에 오버레이하여 표시할 수 있다. 객체 표시부(670)는 예를 들어, 모니터, 디스플레이 장치 등과 같은 출력 수단을 통해 콘텐츠를 현재 촬영 이미지(800)에 오버레이하여 표시할 수 있다. 이때, 타깃 이미지(810)에 저작된 텍스트 형태의 콘텐츠(531), 이미지 형태의 콘텐츠(533) 등이 현재 촬영 이미지(800) 상에 표시될 수 있다.For example, as shown in FIG. 8 , when a specific target image 810 is recognized from the currently captured image 800 , the object display unit 670 displays one or more contents authored on the recognized target image 810 currently. The captured image 800 may be overlaid and displayed. The object display unit 670 may overlay and display the content on the currently captured image 800 through an output means such as a monitor or a display device. In this case, the content 531 in the form of text, the content 533 in the form of an image, etc. written on the target image 810 may be displayed on the currently captured image 800 .

일 실시예에서, 객체 표시부(670)는 현재 촬영 이미지에서 인식된 타깃 이미지를 추적하면서 인식된 타깃 이미지에 저작된 하나 이상의 콘텐츠를 표시할 수 있다.In an embodiment, the object display unit 670 may display one or more contents authored on the recognized target image while tracking the recognized target image in the current captured image.

이때, 타깃 이미지 추적은 예를 들어, 특징점 추적 등과 같이 기 정의된 다양한 이미지 추적 알고리즘을 이용하여 수행될 수 있다.In this case, the target image tracking may be performed using various predefined image tracking algorithms such as feature point tracking, for example.

도 9는 일 실시예에 따른 증강 현실 서비스 제공 서버에서 수행되는 증강 현실 서비스 제공 방법의 순서도이다.9 is a flowchart of an augmented reality service providing method performed by an augmented reality service providing server according to an embodiment.

도 9에 도시된 방법은 예를 들어, 도 2에 도시된 증강 현실 서비스 제공 서버(110)에 의해 수행될 수 있다.The method illustrated in FIG. 9 may be performed, for example, by the augmented reality service providing server 110 illustrated in FIG. 2 .

도 9를 참조하면, 증강 현실 서비스 제공 서버(110)는 타깃 객체에 대한 마커를 생성한다(910).Referring to FIG. 9 , the augmented reality service providing server 110 generates a marker for a target object ( 910 ).

이때, 증강 현실 서비스 제공 서버(110)는 타깃 객체에 대한 식별 정보에 기초하여 마커를 생성할 수 있다.In this case, the augmented reality service providing server 110 may generate a marker based on identification information on the target object.

이후, 증강 현실 서비스 제공 서버(110)는 마커를 인식한 사용자 단말(130)로부터 타깃 객체에 대한 콘텐츠 요청을 수신한다(920).Thereafter, the augmented reality service providing server 110 receives a content request for the target object from the user terminal 130 recognizing the marker ( 920 ).

이후, 증강 현실 서비스 제공 서버(110)는 타깃 객체에 대한 하나 이상의 타깃 이미지 및 하나 이상의 타깃 이미지 각각에 저작된 하나 이상의 콘텐츠를 사용자 단말(130)로 전송한다(930).Thereafter, the augmented reality service providing server 110 transmits one or more target images of the target object and one or more contents authored on each of the one or more target images to the user terminal 130 ( 930 ).

도 10은 일 실시예에 따른 증강 현실 서비스 제공 장치에서 수행되는 증강 현실 서비스 제공 방법의 순서도이다.10 is a flowchart of a method for providing an augmented reality service performed by an apparatus for providing an augmented reality service according to an exemplary embodiment.

도 10에 도시된 방법은 예를 들어, 도 6에 도시된 증강 현실 서비스 제공 장치(600)에 의해 수행될 수 있다.The method illustrated in FIG. 10 may be performed, for example, by the augmented reality service providing apparatus 600 illustrated in FIG. 6 .

도 10을 참조하면, 증강 현실 서비스 제공 장치(600)는 이미지에 포함된 마커를 인식한다(1010).Referring to FIG. 10 , the augmented reality service providing apparatus 600 recognizes a marker included in an image ( 1010 ).

이후, 증강 현실 서비스 제공 장치(600)는 타깃 객체를 식별한다(1020).Thereafter, the augmented reality service providing apparatus 600 identifies the target object ( 1020 ).

이때, 증강 현실 서비스 제공 장치(600)는 마커를 인식하여 획득된 식별 정보에 기초하여 타깃 객체를 식별할 수 있다.In this case, the augmented reality service providing apparatus 600 may identify the target object based on identification information obtained by recognizing the marker.

이후, 증강 현실 서비스 제공 장치(600)는 증강 현실 서비스 제공 서버(110)로 마커에 기초하여 식별된 타깃 객체에 대한 콘텐츠를 요청한다(1030).Thereafter, the augmented reality service providing apparatus 600 requests the augmented reality service providing server 110 for content on the identified target object based on the marker ( 1030 ).

이후, 증강 현실 서비스 제공 장치(600)는 증강 현실 서비스 제공 서버(110)로부터 타깃 객체에 대한 하나 이상의 타깃 이미지 및 하나 이상의 타깃 이미지 각각에 저작된 하나 이상의 콘텐츠를 수신한다(1040).Thereafter, the augmented reality service providing apparatus 600 receives, from the augmented reality service providing server 110 , one or more target images of a target object and one or more contents authored on each of the one or more target images ( 1040 ).

이후, 증강 현실 서비스 제공 장치(600)는 현재 촬영 이미지에서 하나 이상의 타깃 이미지 중 적어도 하나를 인식한다(1050).Thereafter, the augmented reality service providing apparatus 600 recognizes at least one of one or more target images from the currently captured image ( S1050 ).

이후, 증강 현실 서비스 제공 장치(600)는 인식된 타깃 이미지에 저작된 하나 이상의 콘텐츠를 현재 촬영 이미지 상에 표시한다(1060).Thereafter, the augmented reality service providing apparatus 600 displays one or more contents authored on the recognized target image on the currently captured image ( 1060 ).

이때, 증강 현실 서비스 제공 장치(600)는 현재 촬영 이미지에서 인식된 타깃 이미지를 추적하면서 인식된 타깃 이미지에 저작된 하나 이상의 콘텐츠를 표시할 수 있다.In this case, the augmented reality service providing apparatus 600 may display one or more contents authored on the recognized target image while tracking the recognized target image in the current captured image.

한편, 도 9 및 10에 도시된 순서도에서는 상기 방법을 복수 개의 단계로 나누어 기재하였으나, 적어도 일부의 단계들은 순서를 바꾸어 수행되거나, 다른 단계와 결합되어 함께 수행되거나, 생략되거나, 세부 단계들로 나뉘어 수행되거나, 또는 도시되지 않은 하나 이상의 단계가 부가되어 수행될 수 있다.On the other hand, in the flowcharts shown in FIGS. 9 and 10, the method is described by dividing the method into a plurality of steps, but at least some of the steps are performed in a different order, performed together in combination with other steps, omitted, or divided into detailed steps. It may be performed, or one or more steps not shown may be added and performed.

도 11은 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 장치를 포함하는 컴퓨팅 환경을 예시하여 설명하기 위한 블록도이다. 도시된 실시예에서, 각 컴포넌트들은 이하에 기술된 것 이외에 상이한 기능 및 능력을 가질 수 있고, 이하에 기술된 것 이외에도 추가적인 컴포넌트를 포함할 수 있다.11 is a block diagram illustrating and describing a computing environment including a computing device suitable for use in example embodiments. In the illustrated embodiment, each component may have different functions and capabilities other than those described below, and may include additional components in addition to those described below.

도시된 컴퓨팅 환경(10)은 컴퓨팅 장치(12)를 포함한다. 일 실시예에서, 컴퓨팅 장치(12)는 예를 들어, 도 2에 도시된 증강 현실 서비스 제공 서버(110) 및 도 6에 도시된 증강 현실 서비스 제공 장치(600)에 포함되는 하나 이상의 컴포넌트일 수 있다.The illustrated computing environment 10 includes a computing device 12 . In one embodiment, the computing device 12 may be, for example, one or more components included in the augmented reality service providing server 110 shown in FIG. 2 and the augmented reality service providing device 600 shown in FIG. 6 . have.

컴퓨팅 장치(12)는 적어도 하나의 프로세서(14), 컴퓨터 판독 가능 저장 매체(16) 및 통신 버스(18)를 포함한다. 프로세서(14)는 컴퓨팅 장치(12)로 하여금 앞서 언급된 예시적인 실시예에 따라 동작하도록 할 수 있다. 예컨대, 프로세서(14)는 컴퓨터 판독 가능 저장 매체(16)에 저장된 하나 이상의 프로그램들을 실행할 수 있다. 상기 하나 이상의 프로그램들은 하나 이상의 컴퓨터 실행 가능 명령어를 포함할 수 있으며, 상기 컴퓨터 실행 가능 명령어는 프로세서(14)에 의해 실행되는 경우 컴퓨팅 장치(12)로 하여금 예시적인 실시예에 따른 동작들을 수행하도록 구성될 수 있다.Computing device 12 includes at least one processor 14 , computer readable storage medium 16 , and communication bus 18 . The processor 14 may cause the computing device 12 to operate in accordance with the exemplary embodiments discussed above. For example, the processor 14 may execute one or more programs stored in the computer-readable storage medium 16 . The one or more programs may include one or more computer-executable instructions that, when executed by the processor 14, configure the computing device 12 to perform operations in accordance with the exemplary embodiment. can be

컴퓨터 판독 가능 저장 매체(16)는 컴퓨터 실행 가능 명령어 내지 프로그램 코드, 프로그램 데이터 및/또는 다른 적합한 형태의 정보를 저장하도록 구성된다. 컴퓨터 판독 가능 저장 매체(16)에 저장된 프로그램(20)은 프로세서(14)에 의해 실행 가능한 명령어의 집합을 포함한다. 일 실시예에서, 컴퓨터 판독 가능 저장 매체(16)는 메모리(랜덤 액세스 메모리와 같은 휘발성 메모리, 비휘발성 메모리, 또는 이들의 적절한 조합), 하나 이상의 자기 디스크 저장 디바이스들, 광학 디스크 저장 디바이스들, 플래시 메모리 디바이스들, 그 밖에 컴퓨팅 장치(12)에 의해 액세스되고 원하는 정보를 저장할 수 있는 다른 형태의 저장 매체, 또는 이들의 적합한 조합일 수 있다.Computer-readable storage medium 16 is configured to store computer-executable instructions or program code, program data, and/or other suitable form of information. The program 20 stored in the computer readable storage medium 16 includes a set of instructions executable by the processor 14 . In one embodiment, computer-readable storage medium 16 includes memory (volatile memory, such as random access memory, non-volatile memory, or a suitable combination thereof), one or more magnetic disk storage devices, optical disk storage devices, flash It may be memory devices, other forms of storage medium accessed by computing device 12 and capable of storing desired information, or a suitable combination thereof.

통신 버스(18)는 프로세서(14), 컴퓨터 판독 가능 저장 매체(16)를 포함하여 컴퓨팅 장치(12)의 다른 다양한 컴포넌트들을 상호 연결한다.Communication bus 18 interconnects various other components of computing device 12 , including processor 14 and computer readable storage medium 16 .

컴퓨팅 장치(12)는 또한 하나 이상의 입출력 장치(24)를 위한 인터페이스를 제공하는 하나 이상의 입출력 인터페이스(22) 및 하나 이상의 네트워크 통신 인터페이스(26)를 포함할 수 있다. 입출력 인터페이스(22) 및 네트워크 통신 인터페이스(26)는 통신 버스(18)에 연결된다. 입출력 장치(24)는 입출력 인터페이스(22)를 통해 컴퓨팅 장치(12)의 다른 컴포넌트들에 연결될 수 있다. 예시적인 입출력 장치(24)는 포인팅 장치(마우스 또는 트랙패드 등), 키보드, 터치 입력 장치(터치패드 또는 터치스크린 등), 음성 또는 소리 입력 장치, 다양한 종류의 센서 장치 및/또는 촬영 장치와 같은 입력 장치, 및/또는 디스플레이 장치, 프린터, 스피커 및/또는 네트워크 카드와 같은 출력 장치를 포함할 수 있다. 예시적인 입출력 장치(24)는 컴퓨팅 장치(12)를 구성하는 일 컴포넌트로서 컴퓨팅 장치(12)의 내부에 포함될 수도 있고, 컴퓨팅 장치(12)와는 구별되는 별개의 장치로 컴퓨팅 장치(12)와 연결될 수도 있다.Computing device 12 may also include one or more input/output interfaces 22 and one or more network communication interfaces 26 that provide interfaces for one or more input/output devices 24 . The input/output interface 22 and the network communication interface 26 are coupled to the communication bus 18 . Input/output device 24 may be coupled to other components of computing device 12 via input/output interface 22 . Exemplary input/output device 24 may include a pointing device (such as a mouse or trackpad), a keyboard, a touch input device (such as a touchpad or touchscreen), a voice or sound input device, various types of sensor devices, and/or imaging devices. input devices, and/or output devices such as display devices, printers, speakers and/or network cards. The exemplary input/output device 24 may be included in the computing device 12 as a component constituting the computing device 12 , and may be connected to the computing device 12 as a separate device distinct from the computing device 12 . may be

이상에서는 실시예들을 중심으로 기술적 특징들을 설명하였다. 하지만, 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한고, 권리 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 권리범위에 포함된 것으로 해석되어야 할 것이다.In the above, the technical features have been described focusing on the embodiments. However, the disclosed embodiments should be considered from an illustrative point of view rather than a limiting point of view, and the scope of the rights is indicated in the claims rather than the foregoing description, and all differences within the scope equivalent thereto are interpreted as included in the scope of rights. it should be

10: 컴퓨팅 환경
12: 컴퓨팅 장치
14: 프로세서
16: 컴퓨터 판독 가능 저장 매체
18: 통신 버스
20: 프로그램
22: 입출력 인터페이스
24: 입출력 장치
26: 네트워크 통신 인터페이스
100: 증강 현실 서비스 제공 시스템
110: 증강 현실 서비스 제공 서버
130: 사용자 단말
111: 마커 생성부
113: 콘텐츠 관리부
115: 콘텐츠 제공부
600: 증강 현실 서비스 제공 장치
610: 객체 식별부
630: 콘텐츠 수신부
650: 타깃 이미지 인식부
670: 콘텐츠 표시부
10: Computing Environment
12: computing device
14: Processor
16: computer readable storage medium
18: communication bus
20: Program
22: input/output interface
24: input/output device
26: network communication interface
100: augmented reality service providing system
110: augmented reality service providing server
130: user terminal
111: marker generating unit
113: content management department
115: content provider
600: augmented reality service providing device
610: object identification unit
630: content receiving unit
650: target image recognition unit
670: content display unit

Claims (14)

타깃 객체에 대한 마커를 생성하는 마커 생성부;
상기 타깃 객체에 대한 하나 이상의 타깃 이미지 및 상기 하나 이상의 타깃 이미지 각각에 저작된 하나 이상의 콘텐츠를 저장하는 콘텐츠 관리부; 및
상기 마커를 인식한 사용자 단말로부터 상기 타깃 객체에 대한 콘텐츠 요청을 수신하고, 상기 하나 이상의 타깃 이미지 및 하나 이상의 콘텐츠를 상기 사용자 단말로 전송하는 콘텐츠 제공부를 포함하는 증강 현실 서비스 제공 서버.
a marker generator generating a marker for the target object;
a content management unit for storing one or more target images for the target object and one or more contents authored in each of the one or more target images; and
Augmented reality service providing server comprising a content providing unit for receiving a content request for the target object from the user terminal recognizing the marker, and transmitting the one or more target images and one or more contents to the user terminal.
청구항 1에 있어서,
상기 마커 생성부는, 상기 타깃 객체에 대한 식별 정보에 기초하여 상기 마커를 생성하는 증강 현실 서비스 제공 서버.
The method according to claim 1,
The marker generating unit is an augmented reality service providing server that generates the marker based on identification information on the target object.
청구항 1에 있어서,
상기 하나 이상의 콘텐츠는, 각각 타깃 이미지에 대한 사용자의 터치 동작 및 드래그 동작 중 적어도 하나에 기초하여 저작된 증강 현실 서비스 제공 서버.
The method according to claim 1,
The one or more contents are, respectively, an augmented reality service providing server that is authored based on at least one of a user's touch operation and a drag operation on the target image.
청구항 3에 있어서,
상기 하나 이상의 콘텐츠는, 각각 타깃 이미지 내 상기 터치 동작 및 드래그 동작 중 적어도 하나에 의해 선택된 위치에 저작된 증강 현실 서비스 제공 서버.
4. The method according to claim 3,
The one or more contents are each authored at a location selected by at least one of the touch action and the drag action in the target image, an augmented reality service providing server.
증강 현실 서비스 제공 서버에 의해 수행되는 증강 현실 서비스 제공 방법에 있어서,
타깃 객체에 대한 마커를 생성하는 단계;
상기 마커를 인식한 사용자 단말로부터 상기 타깃 객체에 대한 콘텐츠 요청을 수신하는 단계; 및
상기 타깃 객체에 대한 하나 이상의 타깃 이미지 및 상기 하나 이상의 타깃 이미지 각각에 저작된 하나 이상의 콘텐츠를 상기 사용자 단말로 전송하는 단계를 포함하는 증강 현실 서비스 제공 방법.
In the augmented reality service providing method performed by the augmented reality service providing server,
generating a marker for the target object;
receiving a content request for the target object from a user terminal recognizing the marker; and
and transmitting one or more target images for the target object and one or more contents authored on each of the one or more target images to the user terminal.
청구항 5에 있어서,
상기 생성하는 단계는, 상기 타깃 객체에 대한 식별 정보에 기초하여 상기 마커를 생성하는 증강 현실 서비스 제공 방법.
6. The method of claim 5,
The generating may include generating the marker based on identification information on the target object.
청구항 5에 있어서,
상기 하나 이상의 콘텐츠는, 각각 타깃 이미지에 대한 사용자의 터치 동작 및 드래그 동작 중 적어도 하나에 기초하여 저작된 증강 현실 서비스 제공 방법.
6. The method of claim 5,
The one or more contents are each authored based on at least one of a user's touch operation and a drag operation on the target image.
청구항 7에 있어서,
상기 하나 이상의 콘텐츠는, 각각 타깃 이미지 내 상기 터치 동작 및 드래그 동작 중 적어도 하나에 의해 선택된 위치에 저작된 증강 현실 서비스 제공 방법.
8. The method of claim 7,
The one or more contents are each authored at a location selected by at least one of the touch operation and the drag operation in the target image.
이미지에 포함된 마커를 인식하여 타깃 객체를 식별하는 객체 식별부;
증강 현실 서비스 제공 서버로 상기 식별된 타깃 객체에 대한 콘텐츠를 요청하고, 상기 증강 현실 서비스 제공 서버로부터 상기 타깃 객체에 대한 하나 이상의 타깃 이미지 및 상기 하나 이상의 타깃 이미지 각각에 저작된 하나 이상의 콘텐츠를 수신하는 콘텐츠 수신부;
현재 촬영 이미지에서 상기 하나 이상의 타깃 이미지 중 적어도 하나를 인식하는 타깃 이미지 인식부; 및
상기 인식된 타깃 이미지에 저작된 하나 이상의 콘텐츠를 상기 현재 촬영 이미지 상에 표시하는 콘텐츠 표시부를 포함하는 증강 현실 서비스 제공 장치.
an object identification unit for recognizing a marker included in an image to identify a target object;
Requesting content for the identified target object to an augmented reality service providing server, and receiving one or more target images for the target object and one or more contents authored on each of the one or more target images from the augmented reality service providing server content receiving unit;
a target image recognition unit for recognizing at least one of the one or more target images from a currently captured image; and
and a content display unit for displaying one or more contents authored on the recognized target image on the currently captured image.
청구항 9에 있어서,
상기 객체 식별부는, 상기 마커를 인식하여 획득된 식별 정보에 기초하여 상기 타깃 객체를 식별하는 증강 현실 서비스 제공 장치.
10. The method of claim 9,
The object identification unit may be configured to identify the target object based on identification information obtained by recognizing the marker.
청구항 9에 있어서,
상기 콘텐츠 표시부는, 상기 현재 촬영 이미지에서 상기 인식된 타깃 이미지를 추적하면서 상기 인식된 타깃 이미지에 저작된 하나 이상의 콘텐츠를 표시하는 증강 현실 서비스 제공 장치.
10. The method of claim 9,
The content display unit, while tracking the recognized target image in the currently captured image, the augmented reality service providing apparatus for displaying one or more contents authored on the recognized target image.
이미지에 포함된 마커를 인식하는 단계;
타깃 객체를 식별하는 단계;
증강 현실 서비스 제공 서버로 상기 식별된 타깃 객체에 대한 콘텐츠를 요청하는 단계;
상기 증강 현실 서비스 제공 서버로부터 상기 타깃 객체에 대한 하나 이상의 타깃 이미지 및 상기 하나 이상의 타깃 이미지 각각에 저작된 하나 이상의 콘텐츠를 수신하는 단계;
현재 촬영 이미지에서 상기 하나 이상의 타깃 이미지 중 적어도 하나를 인식하는 단계; 및
상기 인식된 타깃 이미지에 저작된 하나 이상의 콘텐츠를 상기 현재 촬영 이미지 상에 표시하는 단계를 포함하는 증강 현실 서비스 제공 방법.
recognizing a marker included in the image;
identifying a target object;
requesting content for the identified target object to an augmented reality service providing server;
receiving, from the augmented reality service providing server, one or more target images of the target object and one or more contents authored in each of the one or more target images;
recognizing at least one of the one or more target images from a currently captured image; and
and displaying one or more contents authored on the recognized target image on the currently captured image.
청구항 12에 있어서,
상기 식별하는 단계는, 상기 마커를 인식하여 획득된 식별 정보에 기초하여 상기 타깃 객체를 식별하는 증강 현실 서비스 제공 방법.
13. The method of claim 12,
The identifying may include identifying the target object based on identification information obtained by recognizing the marker.
청구항 12에 있어서,
상기 표시하는 단계는, 상기 현재 촬영 이미지에서 상기 인식된 타깃 이미지를 추적하면서 상기 인식된 타깃 이미지에 저작된 하나 이상의 콘텐츠를 표시하는 증강 현실 서비스 제공 방법.
13. The method of claim 12,
The displaying may include displaying one or more contents authored on the recognized target image while tracking the recognized target image in the currently captured image.
KR1020200028323A 2020-03-06 2020-03-06 Server, apparatus and method for providing argumented reality service KR20210112816A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200028323A KR20210112816A (en) 2020-03-06 2020-03-06 Server, apparatus and method for providing argumented reality service

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200028323A KR20210112816A (en) 2020-03-06 2020-03-06 Server, apparatus and method for providing argumented reality service

Publications (1)

Publication Number Publication Date
KR20210112816A true KR20210112816A (en) 2021-09-15

Family

ID=77793323

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200028323A KR20210112816A (en) 2020-03-06 2020-03-06 Server, apparatus and method for providing argumented reality service

Country Status (1)

Country Link
KR (1) KR20210112816A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101040253B1 (en) 2009-02-03 2011-06-09 광주과학기술원 Method of producing and recognizing marker for providing augmented reality

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101040253B1 (en) 2009-02-03 2011-06-09 광주과학기술원 Method of producing and recognizing marker for providing augmented reality

Similar Documents

Publication Publication Date Title
US20210056344A1 (en) Method and electronic apparatus for processing image and training image tag classification model
KR20200042629A (en) Method for generating annotation and image based on touch of mobile device to learn artificial intelligence and apparatus therefor
KR102001218B1 (en) Method and device for providing information regarding the object
US10762678B2 (en) Representing an immersive content feed using extended reality based on relevancy
US8941752B2 (en) Determining a location using an image
CN105745955A (en) Protecting privacy in web-based immersive augmented reality
JP2016515239A (en) Method and apparatus for providing augmented reality using optical character recognition
KR102142347B1 (en) Method for id card recognition and application for the same method
US11899908B2 (en) Image template-based AR form experiences
CN110059623B (en) Method and apparatus for generating information
CN112215924A (en) Picture comment processing method and device, electronic equipment and storage medium
US10788902B2 (en) Information processing device and information processing method
WO2020165885A1 (en) Computer-implemented method and system for providing interaction rules in mixed reality
US10606886B2 (en) Method and system for remote management of virtual message for a moving object
KR20210112816A (en) Server, apparatus and method for providing argumented reality service
KR20210157742A (en) Method and system for providing web content in virtual reality environment
KR102512184B1 (en) System and method for supporting a reading
CN109034085B (en) Method and apparatus for generating information
JP7119106B2 (en) METHOD AND SYSTEM FOR RECOMMENDING PROFILE PHOTOS AND NON-TEMPORARY COMPUTER-READABLE MEDIUM
US11734397B2 (en) Hallmark-based image capture prevention
US20170277722A1 (en) Search service providing apparatus, system, method, and computer program
CN110991431A (en) Face recognition method, device, equipment and storage medium
KR102560854B1 (en) Method and apparatus for providing tarot card content using qr code
KR102449724B1 (en) Hidden camera detection system, method and computing device for performing the same
KR102094927B1 (en) Apparatus and method for tracking qr code

Legal Events

Date Code Title Description
E601 Decision to refuse application