KR20210112816A - Server, apparatus and method for providing argumented reality service - Google Patents
Server, apparatus and method for providing argumented reality service Download PDFInfo
- Publication number
- KR20210112816A KR20210112816A KR1020200028323A KR20200028323A KR20210112816A KR 20210112816 A KR20210112816 A KR 20210112816A KR 1020200028323 A KR1020200028323 A KR 1020200028323A KR 20200028323 A KR20200028323 A KR 20200028323A KR 20210112816 A KR20210112816 A KR 20210112816A
- Authority
- KR
- South Korea
- Prior art keywords
- target
- augmented reality
- target object
- marker
- reality service
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/4722—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content
- H04N21/4725—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content using interactive regions of the image, e.g. hot spots
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06K—GRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
- G06K19/00—Record carriers for use with machines and with at least a part designed to carry digital markings
- G06K19/06—Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
- G06K19/06009—Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
- G06K19/06037—Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking multi-dimensional coding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/47217—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Business, Economics & Management (AREA)
- Databases & Information Systems (AREA)
- Tourism & Hospitality (AREA)
- Economics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
개시되는 실시예들은 증강 현실 기술과 관련된다. The disclosed embodiments relate to augmented reality technology.
종래에는 현실 사물에 정합되는 증강 현실 기술을 구현하려는 경우, 증강 현실을 적용하려는 대상 사물을 사전에 학습하고 애플리케이션에 넣어 두어야 한다. 따라서, 종래에는 증강 현실을 확대 적용하기 위해서 다시 개발을 진행하고 학습을 새로 해야 하는 문제가 있다. 즉, 종래의 기술은 증강 현실을 새로운 사물에 확대 적용하기 어렵다.In the prior art, if you want to implement augmented reality technology that matches a real object, you need to learn in advance the target object to which the augmented reality is to be applied and put it in an application. Therefore, in the prior art, there is a problem in that in order to expand and apply augmented reality, it is necessary to re-develop and re-learning. That is, it is difficult to expand and apply augmented reality to new objects in the prior art.
또한, 증강 현실을 적용하기 위한 사물들의 외관이 유사한 경우, 외관이 유사한 사물들을 촬영한 타깃 이미지 만으로 해당 사물들을 구분하기 어려운 경우가 있다. 따라서, 종래 기술은 증강 현실 콘텐츠를 관리하는데 어려움이 있었다. In addition, when objects to which augmented reality is applied have similar appearances, it may be difficult to distinguish the objects only with target images obtained by photographing objects having similar appearances. Therefore, the prior art had difficulties in managing augmented reality content.
구체적으로, 종래에 증강 현실을 구현하는 방법은 아래와 같다.Specifically, a method for implementing augmented reality in the prior art is as follows.
1) 학습1) Learning
증강 현실을 구현하고 싶은 대상 사물을 학습하여 학습 파일을 만든다.Create a learning file by learning the target object to implement augmented reality.
2) 콘텐츠 배치2) Content placement
유니티(UNITY)에서 학습 파일을 로딩하여 대상 사물 위에 콘텐츠를 배치한다.Load the training file from Unity and place the content on the target object.
3) 개발3) development
애플리케이션을 빌드한다.Build the application.
4) 타깃 인식4) Target recognition
애플리케이션을 실행하여 학습한 대상 사물을 비춘다.Run the application to illuminate the learned target object.
5) 콘텐츠 표시5) Show content
타깃 이미지 위에 배치된 콘텐츠가 대상 사물에 추적되어 표시된다.Content placed on the target image is tracked and displayed on the target object.
이와 같이 종래 기술은 증강 현실을 구현하고 확대 적용하기 위해서 유니티라는 전문가용 저작 툴에 대한 학습이 필요하다. 또한, 종래 기술은 애플리케이션을 다시 빌드해야 하기 때문에 개발적인 지식이 없는 일반 사용자가 증강 현실을 확대 적용할 수 없는 문제가 있다.As described above, in the prior art, it is necessary to learn about a professional authoring tool called Unity in order to implement and expand augmented reality. In addition, since the prior art needs to re-build the application, there is a problem in that a general user without developmental knowledge cannot expand and apply augmented reality.
또한, 종래 기술은 다수의 타깃 이미지를 애플리케이션에 등록하게 되면 단말기의 처리 속도가 느려지기 때문에 일정 개수 이상 대상 사물을 확대 적용할 수 없는 기술적인 한계가 있다.In addition, when a plurality of target images are registered in an application, the prior art has a technical limitation in that it is not possible to enlarge and apply more than a certain number of target objects because the processing speed of the terminal is slowed.
개시되는 실시예들은 증강 현실 서비스 제공 서버, 장치 및 방법을 제공하기 위한 것으로, 마커로 타깃 객체를 식별하고, 타깃 객체에 대한 타깃 이미지를 인식하여 증강 현실 콘텐츠를 표시하기 위한 것이다.Disclosed embodiments are to provide an augmented reality service providing server, apparatus, and method, for identifying a target object with a marker, recognizing a target image for the target object, and displaying augmented reality content.
일 실시예에 따른 증강 현실 서비스 제공 서버는, 타깃 객체에 대한 마커를 생성하는 마커 생성부; 상기 타깃 객체에 대한 하나 이상의 타깃 이미지 및 상기 하나 이상의 타깃 이미지 각각에 저작된 하나 이상의 콘텐츠를 저장하는 콘텐츠 관리부; 및 상기 마커를 인식한 사용자 단말로부터 상기 타깃 객체에 대한 콘텐츠 요청을 수신하고, 상기 하나 이상의 타깃 이미지 및 하나 이상의 콘텐츠를 상기 사용자 단말로 전송하는 콘텐츠 제공부를 포함한다.An augmented reality service providing server according to an embodiment includes: a marker generating unit generating a marker for a target object; a content management unit for storing one or more target images for the target object and one or more contents authored in each of the one or more target images; and a content providing unit for receiving a content request for the target object from the user terminal recognizing the marker, and transmitting the one or more target images and one or more contents to the user terminal.
상기 마커 생성부는, 상기 타깃 객체에 대한 식별 정보에 기초하여 상기 마커를 생성할 수 있다.The marker generator may generate the marker based on identification information on the target object.
상기 하나 이상의 콘텐츠는, 각각 타깃 이미지에 대한 사용자의 터치 동작 및 드래그 동작 중 적어도 하나에 기초하여 저작될 수 있다.The one or more contents may be authored based on at least one of a user's touch operation and a drag operation on the target image, respectively.
상기 하나 이상의 콘텐츠는, 각각 타깃 이미지 내 상기 터치 동작 및 드래그 동작 중 적어도 하나에 의해 선택된 위치에 저작될 수 있다.The one or more contents may be authored at a location selected by at least one of the touch operation and the drag operation in the target image, respectively.
일 실시예에 따른 증강 현실 서비스 제공 서버에 의해 수행되는 증강 현실 서비스 제공 방법은, 타깃 객체에 대한 마커를 생성하는 단계; 상기 마커를 인식한 사용자 단말로부터 상기 타깃 객체에 대한 콘텐츠 요청을 수신하는 단계; 및 상기 타깃 객체에 대한 하나 이상의 타깃 이미지 및 상기 하나 이상의 타깃 이미지 각각에 저작된 하나 이상의 콘텐츠를 상기 사용자 단말로 전송하는 단계를 포함한다.An augmented reality service providing method performed by an augmented reality service providing server according to an embodiment includes: generating a marker for a target object; receiving a content request for the target object from a user terminal recognizing the marker; and transmitting one or more target images for the target object and one or more contents authored to each of the one or more target images to the user terminal.
상기 생성하는 단계는, 상기 타깃 객체에 대한 식별 정보에 기초하여 상기 마커를 생성할 수 있다.The generating may include generating the marker based on identification information on the target object.
상기 하나 이상의 콘텐츠는, 각각 타깃 이미지에 대한 사용자의 터치 동작 및 드래그 동작 중 적어도 하나에 기초하여 저작될 수 있다.The one or more contents may be authored based on at least one of a user's touch operation and a drag operation on the target image, respectively.
상기 하나 이상의 콘텐츠는, 각각 타깃 이미지 내 상기 터치 동작 및 드래그 동작 중 적어도 하나에 의해 선택된 위치에 저작될 수 있다.The one or more contents may be authored at a location selected by at least one of the touch operation and the drag operation in the target image, respectively.
일 실시예에 따른 증강 현실 서비스 제공 장치는, 이미지에 포함된 마커를 인식하여 타깃 객체를 식별하는 객체 식별부; 증강 현실 서비스 제공 서버로 상기 식별된 타깃 객체에 대한 콘텐츠를 요청하고, 상기 증강 현실 서비스 제공 서버로부터 상기 타깃 객체에 대한 하나 이상의 타깃 이미지 및 상기 하나 이상의 타깃 이미지 각각에 저작된 하나 이상의 콘텐츠를 수신하는 콘텐츠 수신부; 현재 촬영 이미지에서 상기 하나 이상의 타깃 이미지 중 적어도 하나를 인식하는 타깃 이미지 인식부; 및 상기 인식된 타깃 이미지에 저작된 하나 이상의 콘텐츠를 상기 현재 촬영 이미지 상에 표시하는 콘텐츠 표시부를 포함한다.An augmented reality service providing apparatus according to an embodiment includes: an object identification unit for recognizing a marker included in an image to identify a target object; Requesting content for the identified target object to an augmented reality service providing server, and receiving one or more target images for the target object and one or more contents authored on each of the one or more target images from the augmented reality service providing server content receiving unit; a target image recognition unit for recognizing at least one of the one or more target images from a currently captured image; and a content display unit displaying one or more contents authored on the recognized target image on the currently captured image.
상기 객체 식별부는, 상기 마커를 인식하여 획득된 식별 정보에 기초하여 상기 타깃 객체를 식별할 수 있다.The object identification unit may identify the target object based on identification information obtained by recognizing the marker.
상기 콘텐츠 표시부는, 상기 현재 촬영 이미지에서 상기 인식된 타깃 이미지를 추적하면서 상기 인식된 타깃 이미지에 저작된 하나 이상의 콘텐츠를 표시할 수 있다.The content display unit may display one or more contents authored on the recognized target image while tracking the recognized target image in the currently captured image.
일 실시예에 따른 증강 현실 서비스 제공 방법은, 이미지에 포함된 마커를 인식하는 단계; 타깃 객체를 식별하는 단계; 증강 현실 서비스 제공 서버로 상기 식별된 타깃 객체에 대한 콘텐츠를 요청하는 단계; 상기 증강 현실 서비스 제공 서버로부터 상기 타깃 객체에 대한 하나 이상의 타깃 이미지 및 상기 하나 이상의 타깃 이미지 각각에 저작된 하나 이상의 콘텐츠를 수신하는 단계; 현재 촬영 이미지에서 상기 하나 이상의 타깃 이미지 중 적어도 하나를 인식하는 단계; 및 상기 인식된 타깃 이미지에 저작된 하나 이상의 콘텐츠를 상기 현재 촬영 이미지 상에 표시하는 단계를 포함할 수 있다.A method of providing an augmented reality service according to an embodiment includes: recognizing a marker included in an image; identifying a target object; requesting content for the identified target object to an augmented reality service providing server; receiving, from the augmented reality service providing server, one or more target images of the target object and one or more contents authored in each of the one or more target images; recognizing at least one of the one or more target images from a currently captured image; and displaying one or more contents authored on the recognized target image on the currently captured image.
상기 식별하는 단계는, 상기 마커를 인식하여 획득된 식별 정보에 기초하여 상기 타깃 객체를 식별할 수 있다.The identifying may include identifying the target object based on identification information obtained by recognizing the marker.
상기 표시하는 단계는, 상기 현재 촬영 이미지에서 상기 인식된 타깃 이미지를 추적하면서 상기 인식된 타깃 이미지에 저작된 하나 이상의 콘텐츠를 표시할 수 있다.The displaying may include displaying one or more contents authored on the recognized target image while tracking the recognized target image in the currently captured image.
개시되는 실시예들에 따르면, 마커를 인식하여 타깃 객체를 식별하고, 타깃 객체에 대한 타깃 이미지를 인식하여 콘텐츠를 표시함으로써, 외관이 유사한 객체들이 다수 존재하더라도 각 객체에 대해 사용자가 의도한 증강 현실 콘텐츠를 증강시킬 수 있으며 타깃 객체 별 증강 현실 콘텐츠 관리가 용이하다. According to the disclosed embodiments, a target object is identified by recognizing a marker, and content is displayed by recognizing a target image for the target object. Content can be augmented, and augmented reality content management for each target object is easy.
또한, 개시되는 실시예들에 따르면, 마커를 인식하여 식별된 타깃 객체에 대한 하나 이상의 타깃 이미지를 수신함으로써, 사용자가 원하는 타깃 객체에 대한 타깃 이미지만 다운로드 받아 타깃 이미지가 많을 경우 사용자 단말이 느려지는 문제를 해결할 수 있다. 이에 따라, 증강 현실을 구현하려는 타깃 객체를 제한없이 확대 적용할 수 있다.In addition, according to the disclosed embodiments, by receiving one or more target images for the identified target object by recognizing the marker, the user downloads only the target image for the target object desired by the user, and when there are many target images, the user terminal is slowed down. can solve the problem Accordingly, it is possible to enlarge and apply a target object for implementing augmented reality without limitation.
또한, 개시되는 실시예들에 따르면, 타깃 객체에 대한 타깃 이미지를 저장하고 타깃 이미지에 대한 사용자의 터치 동작 및 드래그 동작 중 적어도 하나에 기초하여 콘텐츠를 저작함으로써, 개발적인 지식이 없는 일반 사용자도 증강 현실 콘텐츠를 쉽게 개발할 수 있다. In addition, according to the disclosed embodiments, by storing a target image of a target object and authoring content based on at least one of a user's touch action and a drag action on the target image, general users without developmental knowledge are also enhanced. You can easily develop real content.
도 1은 일 실시예에 따른 증강 현실 서비스 제공 시스템의 구성도
도 2는 일 실시예에 따른 증강 현실 서비스 제공 서버의 구성도
도 3은 일 실시예에 따른 마커의 예시도
도 4는 일 실시예에 따른 저장된 타깃 이미지의 예시도
도 5는 일 실시예에 따른 콘텐츠를 저작하는 예를 설명하기 위한 도면
도 6은 일 실시예에 따른 증강 현실 서비스 제공 장치의 구성도
도 7은 일 실시예에 따른 수신된 타깃 이미지의 예시도
도 8은 일 실시예에 따른 콘텐츠를 표시하는 예를 설명하기 위한 도면
도 9는 일 실시예에 따른 증강 현실 서비스 제공 서버에서 수행되는 증강 현실 서비스 제공 방법의 순서도
도 10은 일 실시예에 따른 증강 현실 서비스 제공 장치에서 수행되는 증강 현실 서비스 제공 방법의 순서도
도 11은 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 장치를 포함하는 컴퓨팅 환경을 예시하여 설명하기 위한 블록도1 is a block diagram of an augmented reality service providing system according to an embodiment;
2 is a configuration diagram of an augmented reality service providing server according to an embodiment;
3 is an exemplary view of a marker according to an embodiment;
4 is an exemplary view of a stored target image according to an embodiment;
5 is a diagram for explaining an example of authoring content according to an embodiment;
6 is a block diagram of an apparatus for providing an augmented reality service according to an embodiment;
7 is an exemplary view of a received target image according to an embodiment;
8 is a diagram for explaining an example of displaying content according to an embodiment;
9 is a flowchart of an augmented reality service providing method performed by an augmented reality service providing server according to an embodiment;
10 is a flowchart of a method for providing an augmented reality service performed by an apparatus for providing an augmented reality service according to an embodiment;
11 is a block diagram illustrating and describing a computing environment including a computing device suitable for use in example embodiments.
이하, 도면을 참조하여 구체적인 실시형태를 설명하기로 한다. 이하의 상세한 설명은 본 명세서에서 기술된 방법, 장치 및/또는 시스템에 대한 포괄적인 이해를 돕기 위해 제공된다. 그러나 이는 예시에 불과하며 이에 제한되지 않는다.Hereinafter, specific embodiments will be described with reference to the drawings. DETAILED DESCRIPTION The following detailed description is provided to provide a comprehensive understanding of the methods, devices, and/or systems described herein. However, this is only an example and is not limited thereto.
실시예들을 설명함에 있어서, 관련된 공지기술에 대한 구체적인 설명이 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고, 후술되는 용어들은 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 상세한 설명에서 사용되는 용어는 단지 실시예들을 기술하기 위한 것이며, 결코 제한적이어서는 안 된다. 명확하게 달리 사용되지 않는 한, 단수 형태의 표현은 복수 형태의 의미를 포함한다. 또한, "포함" 또는 "구비"와 같은 표현은 어떤 특성들, 숫자들, 단계들, 동작들, 요소들, 이들의 일부 또는 조합을 가리키기 위한 것이며, 기술된 것 이외에 하나 또는 그 이상의 다른 특성, 숫자, 단계, 동작, 요소, 이들의 일부 또는 조합의 존재 또는 가능성을 배제하도록 해석되어서는 안 된다.In describing the embodiments, if it is determined that a detailed description of a related known technology may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. And, the terms to be described later are terms defined in consideration of functions, which may vary depending on the intention or custom of the user or operator. Therefore, the definition should be made based on the content throughout this specification. The terminology used in the detailed description is for the purpose of describing the embodiments only, and should in no way be limiting. Unless explicitly used otherwise, expressions in the singular include the meaning of the plural. Also, expressions such as “comprising” or “comprising” are intended to indicate certain features, numbers, steps, acts, elements, some or combination thereof, and one or more other features than those described. , should not be construed to exclude the presence or possibility of any number, step, action, element, or any part or combination thereof.
도 1은 일 실시예에 따른 증강 현실 서비스 제공 시스템(100)의 구성도이다. 1 is a block diagram of an augmented reality
도 1을 참조하면, 증강 현실 서비스 제공 시스템(100)은 증강 현실 서비스 제공 서버(110) 및 사용자 단말(130)을 포함한다.Referring to FIG. 1 , the augmented reality
일 실시예에서, 증강 현실 서비스 제공 시스템(100)은 사용자 단말(130)에 설치된 증강 현실 애플리케이션을 통해 사용자 단말(130)로 증강 현실 서비스를 제공할 수 있다. 이때, 증강 현실 애플리케이션은 증강 현실 서비스 제공 서버(110)와 연동하여 증강 현실 서비스를 제공하기 위한 프로그램일 수 있다. 예를 들어, 증강 현실 애플리케이션은 증강 현실 서비스 제공 서버(110)와 통신하면서 증강 현실을 구현하는데 이용되는 타깃 이미지 및 콘텐츠를 요청하고, 증강 현실 서비스 제공 서버(110)로부터 제공받은 타깃 이미지 및 콘텐츠를 사용자 단말(130)로 제공하는 역할을 수행하며, 콘텐츠 디스플레이, 콘텐츠에 대한 사용자 명령 처리 등 다양한 역할을 수행할 수 있다.In an embodiment, the augmented reality
증강 현실 서비스 제공 서버(110)는 타깃 객체에 대한 식별 정보, 마커, 타깃 이미지, 콘텐츠 등 증강 현실을 구현하는데 이용되는 각종 정보를 저장할 수 있다. The augmented reality
이때, 마커는 타겟 객체 및 타겟 객체에 대응되는 증강 현실 콘텐츠를 식별하기 위한 이용되는 것으로, 예를 들어, QR 코드, 바코드 등과 같이 특정한 패턴을 가진 도형의 형태로 구성될 수 있다.In this case, the marker is used to identify a target object and augmented reality content corresponding to the target object, and may be configured in the form of a figure having a specific pattern, such as a QR code, a barcode, or the like.
이때, 타깃 객체는 증강 현실을 구현하려는 대상인 객체이다.In this case, the target object is an object for which augmented reality is to be implemented.
타깃 이미지는 타깃 객체를 촬영한 이미지이다. The target image is an image obtained by photographing the target object.
예를 들어, 증강 현실 서비스 제공 서버(110)는 웹 사이트를 통해 사용자로부터 증강 현실을 구현하는데 이용되는 각종 정보를 입력받거나, 사용자에게 상기 각종 정보를 제공할 수 있다. 이때, 사용자는 사용자 단말(130)을 통해 증강 현실 서비스 제공 서버(110)와 연결된 웹 사이트를 접속하거나, 사용자 단말(130) 이외에 디스플레이 수단, 음성처리 수단, 정보처리 수단, 데이터 통신 수단 등을 구비한 다양한 형태의 장치들을 통해 웹 사이트를 접속할 수 있다.For example, the augmented reality
또한, 증강 현실 서비스 제공 서버(110)는 사용자 단말(130)과 연동하여 증강 현실 서비스를 제공할 수 있다. 예를 들어, 증강 현실 서비스 제공 서버(110)는 사용자 단말(130)로부터 타깃 객체에 대한 콘텐츠 요청을 수신하는 경우, 사용자 단말(130)로 타깃 객체에 대한 타깃 이미지 및 타깃 이미지에 저작된 콘텐츠를 제공할 수 있다.In addition, the augmented reality
사용자 단말(130)은 예를 들어, 스마트폰과 같이 디스플레이 수단, 음성처리 수단, 정보처리 수단 및 유무선 네트워크를 통한 데이터 통신 수단을 구비한 다양한 형태의 장치들을 포함할 수 있다. 또한, 사용자 단말(130)은 카메라와 같은 촬영 수단을 구비할 수 있다.The
사용자 단말(130)은 증강 현실 서비스 제공 서버(110)와 연동된 증강 현실 애플리케이션을 통해 사용자에게 증강 현실 서비스를 제공할 수 있다. 또한, 사용자 단말(130)은 디스플레이, 스피커 등과 같은 출력 수단을 이용하여 증강 현실 서비스 애플리케이션을 통해 제공받은 콘텐츠를 출력할 수 있고, 터치 스크린, 키보드 등과 같은 입력 수단을 이용하여 사용자로부터 콘텐츠에 대한 사용자 명령을 입력받을 수 있다.The
예를 들어, 사용자 단말(130)은 카메라와 같은 촬영 수단을 이용하여 촬영된 이미지에 포함된 마커를 인식하고, 증강 현실 서비스 제공 서버(110)에게 인식된 마커에 대응되는 타깃 객체에 대한 콘텐츠를 요청할 수 있다. 또한, 사용자 단말(130)은 증강 현실 애플리케이션을 통해 증강 현실 서비스 제공 서버(110)로부터 타깃 객체에 대한 타깃 이미지 및 타깃 이미지에 저작된 콘텐츠를 제공받고, 제공받은 타깃 이미지를 인식하여 현재 촬영 중인 이미지 상에 콘텐츠를 표시할 수 있다.For example, the
도 2는 일 실시예에 따른 증강 현실 서비스 제공 서버(110)의 구성도이다.2 is a configuration diagram of an augmented reality
도 2를 참조하면, 증강 현실 서비스 제공 서버(110)는 마커 생성부(111), 콘텐츠 관리부(113) 및 콘텐츠 제공부(115)를 포함한다.Referring to FIG. 2 , the augmented reality
일 실시예에서, 마커 생성부(111), 콘텐츠 관리부(113) 및 콘텐츠 제공부(115)는 물리적으로 구분된 하나 이상의 장치를 이용하여 구현되거나, 하나 이상의 프로세서 또는 하나 이상의 프로세서 및 소프트웨어의 결합에 의해 구현될 수 있으며, 도시된 예와 달리 구체적 동작에 있어 명확히 구분되지 않을 수 있다.In one embodiment, the
마커 생성부(111)는 타깃 객체에 대한 마커를 생성한다.The
예를 들어, 사용자는 증강 현실을 구현하려는 객체를 증강 현실 서비스 제공 서버(110)에 타깃 객체로 등록할 수 있다. 이때, 사용자가 증강 현실 서비스 제공 서버(110)와 연결된 웹 사이트를 통해 타깃 객체에 대한 등록을 요청하는 경우, 마커 생성부(111)는 타깃 객체에 대한 마커를 생성할 수 있다.For example, the user may register an object to implement augmented reality as a target object in the augmented reality
일 실시예에서, 도 3에 도시된 바와 같이, 마커 생성부(111)는 타깃 객체에 대해 QR 코드 형태의 마커를 생성할 수 있다. 다만, 도시된 도 3에서는 마커가 QR 코드인 것으로 예시하였으나, 마커의 종류는 QR 코드로 한정되지 않으며 다양할 수 있다.In an embodiment, as shown in FIG. 3 , the
일 실시예에서, 마커 생성부(111)는 타깃 객체에 대한 식별 정보에 기초하여 마커를 생성할 수 있다.In an embodiment, the
예를 들어, 마커 생성부(111)는 사용자로부터 타깃 객체에 대한 식별 정보를 입력받고, 입력받은 식별 정보에 기초하여 마커를 생성할 수 있다. For example, the
다만, 상술한 예에서는 사용자로부터 타깃 객체에 대한 식별 정보를 입력받는 것으로 설명하였으나, 이는 일 실시예에 불과하며, 타깃 객체에 대한 식별 정보를 생성하는 방식은 다양할 수 있다. 예를 들어, 마커 생성부(111)는 미리 설정된 알고리즘에 따라 타깃 객체에 대한 식별 정보를 생성하고, 생성된 식별 정보에 기초하여 마커를 생성할 수 있다. However, in the above-described example, it has been described that the identification information for the target object is received from the user, but this is only an exemplary embodiment, and there may be various methods for generating the identification information on the target object. For example, the
한편, 사용자는 생성된 마커를 타깃 객체에 부착시킬 수 있으며, 후술할 바와 같이 타깃 객체에 부착된 마커는 타깃 객체를 식별하기 위해 이용될 수 있다.Meanwhile, the user may attach the generated marker to the target object, and as will be described later, the marker attached to the target object may be used to identify the target object.
콘텐츠 관리부(113)는 타깃 객체에 대한 하나 이상의 타깃 이미지 및 하나 이상의 타깃 이미지 각각에 저작된 하나 이상의 콘텐츠를 저장한다.The
이때, 하나 이상의 타깃 이미지는 타깃 객체를 서로 상이한 각도에서 촬영하여 획득된 이미지일 수 있다. 예를 들어, 하나 이상의 타깃 이미지는 타깃 객체의 전면, 후면, 좌면, 우면 등을 촬영하여 획득된 이미지일 수 있다. 따라서, 타깃 객체의 모든 면이 증강 현실을 구현하기 위한 대상이 될 수 있다.In this case, the one or more target images may be images obtained by photographing the target object from different angles. For example, the one or more target images may be images obtained by photographing the front, rear, left, and right surfaces of the target object. Accordingly, all sides of the target object may be targets for implementing augmented reality.
일 실시예에서, 콘텐츠 관리부(113)는 타깃 객체에 대한 하나 이상의 타깃 이미지 및 하나 이상의 타깃 이미지 각각에 저작된 하나 이상의 콘텐츠를 식별 정보와 매칭시켜 저장할 수 있다.In an embodiment, the
예를 들어, 도 4에 도시된 바와 같이, 사용자는 증강 현실 서비스 제공 서버(110)와 연결된 웹 사이트를 통해 타깃 객체에 대한 하나 이상의 타깃 이미지(410)를 등록할 수 있다. 이때, 콘텐츠 관리부(113)는 사용자에 의해 입력된 타깃 객체에 대한 하나 이상의 타깃 이미지를 타깃 객체에 대한 식별 정보와 매칭시켜 저장할 수 있다. For example, as shown in FIG. 4 , a user may register one or
또한, 사용자는 증강 현실 서비스 제공 서버(110)와 연결된 웹 사이트를 통해 하나 이상의 타깃 이미지 각각에 대해 하나 이상의 콘텐츠를 저작할 수 있다. In addition, the user may author one or more contents for each of one or more target images through a website connected to the augmented reality
예를 들어, 도 5에 도시된 바와 같이, 증강 현실 서비스 제공 서버(110)는 웹 사이트를 통해 사용자에게 콘텐츠 저작을 위한 사용자 인터페이스(500)를 제공할 수 있다. 이때, 사용자 인터페이스(500)는 타깃 이미지 목록(510), 콘텐츠를 저작하려는 타깃 이미지(520), 콘텐츠 목록(530) 등을 포함할 수 있다. 이때, 콘텐츠는 텍스트 형태의 콘텐츠(531), 이미지 형태의 콘텐츠(533) 등 다양한 형태의 콘텐츠를 포함할 수 있다.For example, as shown in FIG. 5 , the augmented reality
일 실시예에서, 하나 이상의 콘텐츠는 각각 타깃 이미지에 대한 사용자의 터치 동작 및 드래그 동작 중 적어도 하나에 기초하여 저작될 수 있다. 구체적으로, 사용자는 하나 이상의 타깃 이미지 중 콘텐츠를 저작하기 위한 타깃 이미지를 선택할 수 있다. 이후, 사용자는 터치스크린, 마우스 등과 같은 입력 수단을 이용하여 터치 동작, 드래그 동작 등을 통해 타깃 이미지 내 원하는 위치에 콘텐츠를 자유롭게 배치할 수 있다. 이때, 하나 이상의 콘텐츠는 각각 타깃 이미지 내 사용자의 터치 동작 및 드래그 동작 중 적어도 하나에 의해 선택된 위치에 저작될 수 있다. 이후, 콘텐츠 관리부(113)는 타깃 이미지에 저작된 콘텐츠의 내용, 형태, 위치 등과 같은 콘텐츠의 저작 정보를 저장할 수 있다.In an embodiment, the one or more contents may be authored based on at least one of a user's touch operation and a drag operation on the target image, respectively. Specifically, the user may select a target image for authoring content among one or more target images. Thereafter, the user may freely arrange the content at a desired position in the target image through a touch operation, a drag operation, or the like using an input means such as a touch screen or a mouse. In this case, each of the one or more contents may be authored at a location selected by at least one of a user's touch operation and a drag operation within the target image. Thereafter, the
콘텐츠 제공부(115)는 마커를 인식한 사용자 단말(130)로부터 타깃 객체에 대한 콘텐츠 요청을 수신하고, 타깃 객체에 대한 하나 이상의 타깃 이미지 및 하나 이상의 타깃 이미지 각각에 저작된 하나 이상의 콘텐츠를 사용자 단말(130)로 전송한다.The
예를 들어, 콘텐츠 제공부(115)는 사용자 단말(130)로부터 타깃 객체에 대한 콘텐츠 요청을 수신하는 경우, 타깃 객체에 대한 식별 정보와 매칭되어 저장된 하나 이상의 타깃 이미지 및 하나 이상의 타깃 이미지 각각에 저작된 하나 이상의 콘텐츠를 로딩할 수 있다. 이후, 콘텐츠 제공부(115)는 타깃 객체에 대한 하나 이상의 타깃 이미지 및 하나 이상의 타깃 이미지 각각에 저작된 하나 이상의 콘텐츠를 사용자 단말(130)로 전송할 수 있다.For example, when receiving a content request for a target object from the
도 6은 일 실시예에 따른 증강 현실 서비스 제공 장치(200)의 구성도이다.6 is a configuration diagram of an apparatus 200 for providing an augmented reality service according to an embodiment.
도 6에 도시된 증강 현실 서비스 제공 장치(600)는 예를 들어, 도 1에 도시된 사용자 단말(130)에 포함된 일 구성으로 구현될 수 있다.The augmented reality
도 6을 참조하면, 증강 현실 서비스 제공 장치(600)는 객체 식별부(610), 콘텐츠 수신부(630), 타깃 이미지 인식부(650) 및 콘텐츠 표시부(670)를 포함한다.Referring to FIG. 6 , the augmented reality
일 실시예에서, 객체 식별부(610), 콘텐츠 수신부(630), 타깃 이미지 인식부(650) 및 콘텐츠 표시부(670)는 물리적으로 구분된 하나 이상의 장치를 이용하여 구현되거나, 하나 이상의 프로세서 또는 하나 이상의 프로세서 및 소프트웨어의 결합에 의해 구현될 수 있으며, 도시된 예와 달리 구체적 동작에 있어 명확히 구분되지 않을 수 있다.In one embodiment, the
객체 식별부(610)는 이미지에 포함된 마커를 인식하여 타깃 객체를 식별한다.The
예를 들어, 사용자가 촬영 수단을 이용하여 타깃 객체에 부착된 마커를 스캔하는 경우, 객체 식별부(610)는 촬영 수단에 의해 획득된 이미지에 포함된 마커를 인식하여 타깃 객체를 식별할 수 있다.For example, when the user scans a marker attached to the target object using the photographing means, the
일 실시예에서, 객체 식별부(610)는 마커를 인식하여 획득된 식별 정보에 기초하여 타깃 객체를 식별할 수 있다.In an embodiment, the
콘텐츠 수신부(630)는 증강 현실 서비스 제공 서버(110)로 식별된 타깃 객체에 대한 콘텐츠를 요청하고, 증강 현실 서비스 제공 서버(110)로부터 타깃 객체에 대한 하나 이상의 타깃 이미지 및 하나 이상의 타깃 이미지 각각에 저작된 하나 이상의 콘텐츠를 수신한다.The
예를 들어, 도 7에 도시된 바와 같이, 타깃 객체에 부착된 마커를 스캔하여 타깃 객체가 식별되는 경우, 콘텐츠 수신부(630)는 증강 현실 서비스 제공 서버(110)로부터 타깃 객체에 대한 하나 이상의 타깃 이미지 및 하나 이상의 타깃 이미지 각각에 저작된 하나 이상의 콘텐츠를 다운로드 받을 수 있다. 이때, 사용자는 사용자 단말(130)에 구비된 디스플레이를 통해 다운로드된 타깃 이미지를 확인할 수 있다. 또한, 다운로드된 타깃 이미지는 곧바로 학습되어 후술할 타깃 이미지 인식 및 추적에 필요한 학습 파일 형태로 증강 현실 서비스 제공 장치(600)에 저장될 수 있다.For example, as shown in FIG. 7 , when a target object is identified by scanning a marker attached to the target object, the
타깃 이미지 인식부(650)는 현재 촬영 이미지에서 하나 이상의 타깃 이미지 중 적어도 하나를 인식한다.The target
예를 들어, 타깃 이미지 인식부(650)는 기 정의된 이미지 인식 알고리즘, 이미지 인식을 위한 딥러닝 모델 등을 이용하여 타깃 이미지를 인식할 수 있다.For example, the target
객체 표시부(670)는 인식된 타깃 이미지에 저작된 하나 이상의 콘텐츠를 현재 촬영 이미지 상에 표시한다. The
예를 들어, 도 8에 도시된 바와 같이, 현재 촬영 이미지(800)에서 특정 타깃 이미지(810)가 인식되면, 객체 표시부(670)는 인식된 타깃 이미지(810)에 저작된 하나 이상의 콘텐츠를 현재 촬영 이미지(800)에 오버레이하여 표시할 수 있다. 객체 표시부(670)는 예를 들어, 모니터, 디스플레이 장치 등과 같은 출력 수단을 통해 콘텐츠를 현재 촬영 이미지(800)에 오버레이하여 표시할 수 있다. 이때, 타깃 이미지(810)에 저작된 텍스트 형태의 콘텐츠(531), 이미지 형태의 콘텐츠(533) 등이 현재 촬영 이미지(800) 상에 표시될 수 있다.For example, as shown in FIG. 8 , when a
일 실시예에서, 객체 표시부(670)는 현재 촬영 이미지에서 인식된 타깃 이미지를 추적하면서 인식된 타깃 이미지에 저작된 하나 이상의 콘텐츠를 표시할 수 있다.In an embodiment, the
이때, 타깃 이미지 추적은 예를 들어, 특징점 추적 등과 같이 기 정의된 다양한 이미지 추적 알고리즘을 이용하여 수행될 수 있다.In this case, the target image tracking may be performed using various predefined image tracking algorithms such as feature point tracking, for example.
도 9는 일 실시예에 따른 증강 현실 서비스 제공 서버에서 수행되는 증강 현실 서비스 제공 방법의 순서도이다.9 is a flowchart of an augmented reality service providing method performed by an augmented reality service providing server according to an embodiment.
도 9에 도시된 방법은 예를 들어, 도 2에 도시된 증강 현실 서비스 제공 서버(110)에 의해 수행될 수 있다.The method illustrated in FIG. 9 may be performed, for example, by the augmented reality
도 9를 참조하면, 증강 현실 서비스 제공 서버(110)는 타깃 객체에 대한 마커를 생성한다(910).Referring to FIG. 9 , the augmented reality
이때, 증강 현실 서비스 제공 서버(110)는 타깃 객체에 대한 식별 정보에 기초하여 마커를 생성할 수 있다.In this case, the augmented reality
이후, 증강 현실 서비스 제공 서버(110)는 마커를 인식한 사용자 단말(130)로부터 타깃 객체에 대한 콘텐츠 요청을 수신한다(920).Thereafter, the augmented reality
이후, 증강 현실 서비스 제공 서버(110)는 타깃 객체에 대한 하나 이상의 타깃 이미지 및 하나 이상의 타깃 이미지 각각에 저작된 하나 이상의 콘텐츠를 사용자 단말(130)로 전송한다(930).Thereafter, the augmented reality
도 10은 일 실시예에 따른 증강 현실 서비스 제공 장치에서 수행되는 증강 현실 서비스 제공 방법의 순서도이다.10 is a flowchart of a method for providing an augmented reality service performed by an apparatus for providing an augmented reality service according to an exemplary embodiment.
도 10에 도시된 방법은 예를 들어, 도 6에 도시된 증강 현실 서비스 제공 장치(600)에 의해 수행될 수 있다.The method illustrated in FIG. 10 may be performed, for example, by the augmented reality
도 10을 참조하면, 증강 현실 서비스 제공 장치(600)는 이미지에 포함된 마커를 인식한다(1010).Referring to FIG. 10 , the augmented reality
이후, 증강 현실 서비스 제공 장치(600)는 타깃 객체를 식별한다(1020).Thereafter, the augmented reality
이때, 증강 현실 서비스 제공 장치(600)는 마커를 인식하여 획득된 식별 정보에 기초하여 타깃 객체를 식별할 수 있다.In this case, the augmented reality
이후, 증강 현실 서비스 제공 장치(600)는 증강 현실 서비스 제공 서버(110)로 마커에 기초하여 식별된 타깃 객체에 대한 콘텐츠를 요청한다(1030).Thereafter, the augmented reality
이후, 증강 현실 서비스 제공 장치(600)는 증강 현실 서비스 제공 서버(110)로부터 타깃 객체에 대한 하나 이상의 타깃 이미지 및 하나 이상의 타깃 이미지 각각에 저작된 하나 이상의 콘텐츠를 수신한다(1040).Thereafter, the augmented reality
이후, 증강 현실 서비스 제공 장치(600)는 현재 촬영 이미지에서 하나 이상의 타깃 이미지 중 적어도 하나를 인식한다(1050).Thereafter, the augmented reality
이후, 증강 현실 서비스 제공 장치(600)는 인식된 타깃 이미지에 저작된 하나 이상의 콘텐츠를 현재 촬영 이미지 상에 표시한다(1060).Thereafter, the augmented reality
이때, 증강 현실 서비스 제공 장치(600)는 현재 촬영 이미지에서 인식된 타깃 이미지를 추적하면서 인식된 타깃 이미지에 저작된 하나 이상의 콘텐츠를 표시할 수 있다.In this case, the augmented reality
한편, 도 9 및 10에 도시된 순서도에서는 상기 방법을 복수 개의 단계로 나누어 기재하였으나, 적어도 일부의 단계들은 순서를 바꾸어 수행되거나, 다른 단계와 결합되어 함께 수행되거나, 생략되거나, 세부 단계들로 나뉘어 수행되거나, 또는 도시되지 않은 하나 이상의 단계가 부가되어 수행될 수 있다.On the other hand, in the flowcharts shown in FIGS. 9 and 10, the method is described by dividing the method into a plurality of steps, but at least some of the steps are performed in a different order, performed together in combination with other steps, omitted, or divided into detailed steps. It may be performed, or one or more steps not shown may be added and performed.
도 11은 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 장치를 포함하는 컴퓨팅 환경을 예시하여 설명하기 위한 블록도이다. 도시된 실시예에서, 각 컴포넌트들은 이하에 기술된 것 이외에 상이한 기능 및 능력을 가질 수 있고, 이하에 기술된 것 이외에도 추가적인 컴포넌트를 포함할 수 있다.11 is a block diagram illustrating and describing a computing environment including a computing device suitable for use in example embodiments. In the illustrated embodiment, each component may have different functions and capabilities other than those described below, and may include additional components in addition to those described below.
도시된 컴퓨팅 환경(10)은 컴퓨팅 장치(12)를 포함한다. 일 실시예에서, 컴퓨팅 장치(12)는 예를 들어, 도 2에 도시된 증강 현실 서비스 제공 서버(110) 및 도 6에 도시된 증강 현실 서비스 제공 장치(600)에 포함되는 하나 이상의 컴포넌트일 수 있다.The illustrated
컴퓨팅 장치(12)는 적어도 하나의 프로세서(14), 컴퓨터 판독 가능 저장 매체(16) 및 통신 버스(18)를 포함한다. 프로세서(14)는 컴퓨팅 장치(12)로 하여금 앞서 언급된 예시적인 실시예에 따라 동작하도록 할 수 있다. 예컨대, 프로세서(14)는 컴퓨터 판독 가능 저장 매체(16)에 저장된 하나 이상의 프로그램들을 실행할 수 있다. 상기 하나 이상의 프로그램들은 하나 이상의 컴퓨터 실행 가능 명령어를 포함할 수 있으며, 상기 컴퓨터 실행 가능 명령어는 프로세서(14)에 의해 실행되는 경우 컴퓨팅 장치(12)로 하여금 예시적인 실시예에 따른 동작들을 수행하도록 구성될 수 있다.
컴퓨터 판독 가능 저장 매체(16)는 컴퓨터 실행 가능 명령어 내지 프로그램 코드, 프로그램 데이터 및/또는 다른 적합한 형태의 정보를 저장하도록 구성된다. 컴퓨터 판독 가능 저장 매체(16)에 저장된 프로그램(20)은 프로세서(14)에 의해 실행 가능한 명령어의 집합을 포함한다. 일 실시예에서, 컴퓨터 판독 가능 저장 매체(16)는 메모리(랜덤 액세스 메모리와 같은 휘발성 메모리, 비휘발성 메모리, 또는 이들의 적절한 조합), 하나 이상의 자기 디스크 저장 디바이스들, 광학 디스크 저장 디바이스들, 플래시 메모리 디바이스들, 그 밖에 컴퓨팅 장치(12)에 의해 액세스되고 원하는 정보를 저장할 수 있는 다른 형태의 저장 매체, 또는 이들의 적합한 조합일 수 있다.Computer-
통신 버스(18)는 프로세서(14), 컴퓨터 판독 가능 저장 매체(16)를 포함하여 컴퓨팅 장치(12)의 다른 다양한 컴포넌트들을 상호 연결한다.
컴퓨팅 장치(12)는 또한 하나 이상의 입출력 장치(24)를 위한 인터페이스를 제공하는 하나 이상의 입출력 인터페이스(22) 및 하나 이상의 네트워크 통신 인터페이스(26)를 포함할 수 있다. 입출력 인터페이스(22) 및 네트워크 통신 인터페이스(26)는 통신 버스(18)에 연결된다. 입출력 장치(24)는 입출력 인터페이스(22)를 통해 컴퓨팅 장치(12)의 다른 컴포넌트들에 연결될 수 있다. 예시적인 입출력 장치(24)는 포인팅 장치(마우스 또는 트랙패드 등), 키보드, 터치 입력 장치(터치패드 또는 터치스크린 등), 음성 또는 소리 입력 장치, 다양한 종류의 센서 장치 및/또는 촬영 장치와 같은 입력 장치, 및/또는 디스플레이 장치, 프린터, 스피커 및/또는 네트워크 카드와 같은 출력 장치를 포함할 수 있다. 예시적인 입출력 장치(24)는 컴퓨팅 장치(12)를 구성하는 일 컴포넌트로서 컴퓨팅 장치(12)의 내부에 포함될 수도 있고, 컴퓨팅 장치(12)와는 구별되는 별개의 장치로 컴퓨팅 장치(12)와 연결될 수도 있다.
이상에서는 실시예들을 중심으로 기술적 특징들을 설명하였다. 하지만, 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한고, 권리 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 권리범위에 포함된 것으로 해석되어야 할 것이다.In the above, the technical features have been described focusing on the embodiments. However, the disclosed embodiments should be considered from an illustrative point of view rather than a limiting point of view, and the scope of the rights is indicated in the claims rather than the foregoing description, and all differences within the scope equivalent thereto are interpreted as included in the scope of rights. it should be
10: 컴퓨팅 환경
12: 컴퓨팅 장치
14: 프로세서
16: 컴퓨터 판독 가능 저장 매체
18: 통신 버스
20: 프로그램
22: 입출력 인터페이스
24: 입출력 장치
26: 네트워크 통신 인터페이스
100: 증강 현실 서비스 제공 시스템
110: 증강 현실 서비스 제공 서버
130: 사용자 단말
111: 마커 생성부
113: 콘텐츠 관리부
115: 콘텐츠 제공부
600: 증강 현실 서비스 제공 장치
610: 객체 식별부
630: 콘텐츠 수신부
650: 타깃 이미지 인식부
670: 콘텐츠 표시부10: Computing Environment
12: computing device
14: Processor
16: computer readable storage medium
18: communication bus
20: Program
22: input/output interface
24: input/output device
26: network communication interface
100: augmented reality service providing system
110: augmented reality service providing server
130: user terminal
111: marker generating unit
113: content management department
115: content provider
600: augmented reality service providing device
610: object identification unit
630: content receiving unit
650: target image recognition unit
670: content display unit
Claims (14)
상기 타깃 객체에 대한 하나 이상의 타깃 이미지 및 상기 하나 이상의 타깃 이미지 각각에 저작된 하나 이상의 콘텐츠를 저장하는 콘텐츠 관리부; 및
상기 마커를 인식한 사용자 단말로부터 상기 타깃 객체에 대한 콘텐츠 요청을 수신하고, 상기 하나 이상의 타깃 이미지 및 하나 이상의 콘텐츠를 상기 사용자 단말로 전송하는 콘텐츠 제공부를 포함하는 증강 현실 서비스 제공 서버.
a marker generator generating a marker for the target object;
a content management unit for storing one or more target images for the target object and one or more contents authored in each of the one or more target images; and
Augmented reality service providing server comprising a content providing unit for receiving a content request for the target object from the user terminal recognizing the marker, and transmitting the one or more target images and one or more contents to the user terminal.
상기 마커 생성부는, 상기 타깃 객체에 대한 식별 정보에 기초하여 상기 마커를 생성하는 증강 현실 서비스 제공 서버.
The method according to claim 1,
The marker generating unit is an augmented reality service providing server that generates the marker based on identification information on the target object.
상기 하나 이상의 콘텐츠는, 각각 타깃 이미지에 대한 사용자의 터치 동작 및 드래그 동작 중 적어도 하나에 기초하여 저작된 증강 현실 서비스 제공 서버.
The method according to claim 1,
The one or more contents are, respectively, an augmented reality service providing server that is authored based on at least one of a user's touch operation and a drag operation on the target image.
상기 하나 이상의 콘텐츠는, 각각 타깃 이미지 내 상기 터치 동작 및 드래그 동작 중 적어도 하나에 의해 선택된 위치에 저작된 증강 현실 서비스 제공 서버.
4. The method according to claim 3,
The one or more contents are each authored at a location selected by at least one of the touch action and the drag action in the target image, an augmented reality service providing server.
타깃 객체에 대한 마커를 생성하는 단계;
상기 마커를 인식한 사용자 단말로부터 상기 타깃 객체에 대한 콘텐츠 요청을 수신하는 단계; 및
상기 타깃 객체에 대한 하나 이상의 타깃 이미지 및 상기 하나 이상의 타깃 이미지 각각에 저작된 하나 이상의 콘텐츠를 상기 사용자 단말로 전송하는 단계를 포함하는 증강 현실 서비스 제공 방법.
In the augmented reality service providing method performed by the augmented reality service providing server,
generating a marker for the target object;
receiving a content request for the target object from a user terminal recognizing the marker; and
and transmitting one or more target images for the target object and one or more contents authored on each of the one or more target images to the user terminal.
상기 생성하는 단계는, 상기 타깃 객체에 대한 식별 정보에 기초하여 상기 마커를 생성하는 증강 현실 서비스 제공 방법.
6. The method of claim 5,
The generating may include generating the marker based on identification information on the target object.
상기 하나 이상의 콘텐츠는, 각각 타깃 이미지에 대한 사용자의 터치 동작 및 드래그 동작 중 적어도 하나에 기초하여 저작된 증강 현실 서비스 제공 방법.
6. The method of claim 5,
The one or more contents are each authored based on at least one of a user's touch operation and a drag operation on the target image.
상기 하나 이상의 콘텐츠는, 각각 타깃 이미지 내 상기 터치 동작 및 드래그 동작 중 적어도 하나에 의해 선택된 위치에 저작된 증강 현실 서비스 제공 방법.
8. The method of claim 7,
The one or more contents are each authored at a location selected by at least one of the touch operation and the drag operation in the target image.
증강 현실 서비스 제공 서버로 상기 식별된 타깃 객체에 대한 콘텐츠를 요청하고, 상기 증강 현실 서비스 제공 서버로부터 상기 타깃 객체에 대한 하나 이상의 타깃 이미지 및 상기 하나 이상의 타깃 이미지 각각에 저작된 하나 이상의 콘텐츠를 수신하는 콘텐츠 수신부;
현재 촬영 이미지에서 상기 하나 이상의 타깃 이미지 중 적어도 하나를 인식하는 타깃 이미지 인식부; 및
상기 인식된 타깃 이미지에 저작된 하나 이상의 콘텐츠를 상기 현재 촬영 이미지 상에 표시하는 콘텐츠 표시부를 포함하는 증강 현실 서비스 제공 장치.
an object identification unit for recognizing a marker included in an image to identify a target object;
Requesting content for the identified target object to an augmented reality service providing server, and receiving one or more target images for the target object and one or more contents authored on each of the one or more target images from the augmented reality service providing server content receiving unit;
a target image recognition unit for recognizing at least one of the one or more target images from a currently captured image; and
and a content display unit for displaying one or more contents authored on the recognized target image on the currently captured image.
상기 객체 식별부는, 상기 마커를 인식하여 획득된 식별 정보에 기초하여 상기 타깃 객체를 식별하는 증강 현실 서비스 제공 장치.
10. The method of claim 9,
The object identification unit may be configured to identify the target object based on identification information obtained by recognizing the marker.
상기 콘텐츠 표시부는, 상기 현재 촬영 이미지에서 상기 인식된 타깃 이미지를 추적하면서 상기 인식된 타깃 이미지에 저작된 하나 이상의 콘텐츠를 표시하는 증강 현실 서비스 제공 장치.
10. The method of claim 9,
The content display unit, while tracking the recognized target image in the currently captured image, the augmented reality service providing apparatus for displaying one or more contents authored on the recognized target image.
타깃 객체를 식별하는 단계;
증강 현실 서비스 제공 서버로 상기 식별된 타깃 객체에 대한 콘텐츠를 요청하는 단계;
상기 증강 현실 서비스 제공 서버로부터 상기 타깃 객체에 대한 하나 이상의 타깃 이미지 및 상기 하나 이상의 타깃 이미지 각각에 저작된 하나 이상의 콘텐츠를 수신하는 단계;
현재 촬영 이미지에서 상기 하나 이상의 타깃 이미지 중 적어도 하나를 인식하는 단계; 및
상기 인식된 타깃 이미지에 저작된 하나 이상의 콘텐츠를 상기 현재 촬영 이미지 상에 표시하는 단계를 포함하는 증강 현실 서비스 제공 방법.
recognizing a marker included in the image;
identifying a target object;
requesting content for the identified target object to an augmented reality service providing server;
receiving, from the augmented reality service providing server, one or more target images of the target object and one or more contents authored in each of the one or more target images;
recognizing at least one of the one or more target images from a currently captured image; and
and displaying one or more contents authored on the recognized target image on the currently captured image.
상기 식별하는 단계는, 상기 마커를 인식하여 획득된 식별 정보에 기초하여 상기 타깃 객체를 식별하는 증강 현실 서비스 제공 방법.
13. The method of claim 12,
The identifying may include identifying the target object based on identification information obtained by recognizing the marker.
상기 표시하는 단계는, 상기 현재 촬영 이미지에서 상기 인식된 타깃 이미지를 추적하면서 상기 인식된 타깃 이미지에 저작된 하나 이상의 콘텐츠를 표시하는 증강 현실 서비스 제공 방법.
13. The method of claim 12,
The displaying may include displaying one or more contents authored on the recognized target image while tracking the recognized target image in the currently captured image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200028323A KR20210112816A (en) | 2020-03-06 | 2020-03-06 | Server, apparatus and method for providing argumented reality service |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200028323A KR20210112816A (en) | 2020-03-06 | 2020-03-06 | Server, apparatus and method for providing argumented reality service |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20210112816A true KR20210112816A (en) | 2021-09-15 |
Family
ID=77793323
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200028323A KR20210112816A (en) | 2020-03-06 | 2020-03-06 | Server, apparatus and method for providing argumented reality service |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20210112816A (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101040253B1 (en) | 2009-02-03 | 2011-06-09 | 광주과학기술원 | Method of producing and recognizing marker for providing augmented reality |
-
2020
- 2020-03-06 KR KR1020200028323A patent/KR20210112816A/en not_active Application Discontinuation
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101040253B1 (en) | 2009-02-03 | 2011-06-09 | 광주과학기술원 | Method of producing and recognizing marker for providing augmented reality |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210056344A1 (en) | Method and electronic apparatus for processing image and training image tag classification model | |
KR20200042629A (en) | Method for generating annotation and image based on touch of mobile device to learn artificial intelligence and apparatus therefor | |
KR102001218B1 (en) | Method and device for providing information regarding the object | |
US10762678B2 (en) | Representing an immersive content feed using extended reality based on relevancy | |
US8941752B2 (en) | Determining a location using an image | |
CN105745955A (en) | Protecting privacy in web-based immersive augmented reality | |
JP2016515239A (en) | Method and apparatus for providing augmented reality using optical character recognition | |
KR102142347B1 (en) | Method for id card recognition and application for the same method | |
US11899908B2 (en) | Image template-based AR form experiences | |
CN110059623B (en) | Method and apparatus for generating information | |
CN112215924A (en) | Picture comment processing method and device, electronic equipment and storage medium | |
US10788902B2 (en) | Information processing device and information processing method | |
WO2020165885A1 (en) | Computer-implemented method and system for providing interaction rules in mixed reality | |
US10606886B2 (en) | Method and system for remote management of virtual message for a moving object | |
KR20210112816A (en) | Server, apparatus and method for providing argumented reality service | |
KR20210157742A (en) | Method and system for providing web content in virtual reality environment | |
KR102512184B1 (en) | System and method for supporting a reading | |
CN109034085B (en) | Method and apparatus for generating information | |
JP7119106B2 (en) | METHOD AND SYSTEM FOR RECOMMENDING PROFILE PHOTOS AND NON-TEMPORARY COMPUTER-READABLE MEDIUM | |
US11734397B2 (en) | Hallmark-based image capture prevention | |
US20170277722A1 (en) | Search service providing apparatus, system, method, and computer program | |
CN110991431A (en) | Face recognition method, device, equipment and storage medium | |
KR102560854B1 (en) | Method and apparatus for providing tarot card content using qr code | |
KR102449724B1 (en) | Hidden camera detection system, method and computing device for performing the same | |
KR102094927B1 (en) | Apparatus and method for tracking qr code |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E601 | Decision to refuse application |