WO2016153108A1 - Method and apparatus for providing augmented reality-based dynamic service - Google Patents

Method and apparatus for providing augmented reality-based dynamic service Download PDF

Info

Publication number
WO2016153108A1
WO2016153108A1 PCT/KR2015/005831 KR2015005831W WO2016153108A1 WO 2016153108 A1 WO2016153108 A1 WO 2016153108A1 KR 2015005831 W KR2015005831 W KR 2015005831W WO 2016153108 A1 WO2016153108 A1 WO 2016153108A1
Authority
WO
WIPO (PCT)
Prior art keywords
content
viewing
metadata
user
authoring
Prior art date
Application number
PCT/KR2015/005831
Other languages
French (fr)
Korean (ko)
Inventor
우운택
하태진
김재인
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to US15/559,810 priority Critical patent/US20180047213A1/en
Priority claimed from KR1020150081767A external-priority patent/KR20160112898A/en
Publication of WO2016153108A1 publication Critical patent/WO2016153108A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Definitions

  • the present invention relates to a viewpoint authoring and a viewer for augmented reality based guide service.
  • Google's Auto Awesome presented a study that automatically records travel records based on time and location information when a user takes a picture and uploads it to a server.
  • This experience is simply a representation of a voice or a picture on the image based on the planar location information in the map.
  • the present invention stores viewing point information through capturing a scene of interest and adds related multimedia contents and narration corresponding to the viewing point of each author, so that the user can later obtain information on the object of interest at the optimal viewing point.
  • An augmented reality authoring and viewer for visualizing the viewpoint is provided.
  • an authoring mode for supporting a viewing time-based information providing service when executed when a service for providing an augmented reality-based content service is performed, data related to a predetermined authoring item based on a predetermined viewing time in a content to be guided is displayed.
  • Match and enhance the displayed content Comprising the step, and the content is characterized in that, depending on the user's viewing movement (viewing) the actual three-dimensional space or a predetermined scenario-based virtual reality space.
  • the authoring mode for supporting the viewing time-based information providing service is supported, and the authoring mode related to augmented reality-based content authoring from a network connected client terminal
  • texture When matching the viewing point-specific metadata corresponding to the content enhancement by matching the content to be displayed for the meta data to the viewing area it is characterized in that it comprises a content server that provides to the client terminal.
  • the present invention not only enables the generation of advanced content for AR services, but also provides a content retrieval function based on content optimized for content displayed on a display unit of a user terminal based on an actual three-dimensional space or a predetermined scenario. It is possible to provide optimized contents by viewing point of view, and interactive adaptation between users and authors who can acquire desired information by only accessing the user's terminal to the object of interest without the user's separate searching operation based on the writing by viewing point. As augmented reality-based content service is possible, the experience of enhanced space telling is possible.
  • FIG. 1 is a flowchart illustrating a method for providing augmented reality-based dynamic service according to an embodiment of the present invention.
  • FIG. 2 is a diagram schematically illustrating an operation flow between a client (author or user) and a server providing an AR-based dynamic service in the AR-based dynamic service providing method according to an embodiment of the present invention.
  • FIG. 3 is a flowchart illustrating an operation in an augmented / virtual reality-based content authoring and visualization software platform to which a method for providing augmented reality-based dynamic services is applied according to an embodiment of the present invention.
  • FIG. 4 is a diagram illustrating a screen to which the augmented reality-based dynamic service providing method according to an embodiment of the present invention is applied.
  • FIG. 5 is an exemplary diagram in which information related to a method for providing augmented reality-based dynamic service according to an embodiment of the present invention is coded.
  • FIG. 6 is a diagram illustrating a screen access showing an XML file and a folder related to a content resource in the augmented reality-based dynamic service providing method according to an embodiment of the present invention.
  • FIG. 7 is an exemplary view showing a user location / gaze information visualization concept image in the augmented reality-based dynamic service providing method according to an embodiment of the present invention.
  • FIG. 8 is a diagram illustrating a screen in which a visualization concept image is applied to an actual screen in the augmented reality-based dynamic service providing method according to an embodiment of the present invention.
  • FIG. 9 is a view illustrating an authoring content confirmation screen by calling an XML file in a content server in a web browser in the augmented reality-based dynamic service providing method according to an embodiment of the present invention.
  • the present invention relates to a viewpoint authoring and a viewer for augmented reality-based guide service, and more specifically, to collect metadata related to a predetermined authoring item based on a predetermined viewing time point in a content to be guided when the authoring mode is executed.
  • Matching and augmenting the metadata with the content displayed in the viewing area to visualize the viewing viewpoint corresponding to the current image or content that is currently visually observed, so that the user can know information about the plurality of objects of interest present in the viewing viewpoint.
  • Obtainable, real 3 Analyzes the movement information of the user sensed according to the user's interrupt in the content displayed on the display unit of the user terminal based on the original space or a predetermined scenario, and the information on the viewing viewpoint corresponding thereto (eg, multimedia content, camera view) , Narration, etc.) by adaptively authoring and storing the content as metadata for each viewing point of the content, or by providing the authoring information corresponding to the previously saved viewing point of view, it is possible to continuously generate the evolved content for the augmented reality-based content service. Rather, it is possible to provide optimized content for each viewing point by utilizing a content search function based on the content optimized for the content displayed on the display unit of the user terminal based on an actual three-dimensional space or a predetermined scenario.
  • a content search function based on the content optimized for the content displayed on the display unit of the user terminal based on an actual three-dimensional space or a predetermined scenario.
  • FIG. 1 is a flowchart illustrating an augmented reality-based dynamic service providing method according to an embodiment of the present invention.
  • step 110 an AR-based content service to which the present invention is applied is performed.
  • the content is an actual three-dimensional space or a predetermined scenario-based virtual reality space that is viewed according to a user's movement, and the content to which the present invention is applied is augmented or virtual (as described below sequentially).
  • virtual) reality is displayed and serviced in the viewing area, and such content is supported through the execution of a specific program or application of the user terminal or retrieved and serviced through the Internet, or received and serviced from a remote service server. Or an actual three-dimensional space input from the viewing area through user shooting.
  • the content searched through the Internet may be a content corresponding to a virtual space
  • the content according to an embodiment of the present invention provides the interaction-based feedback (eg, correction / supplementation) between the content creator and the content user Throughout this we refer to all content that is constantly updated and evolved.
  • a mode switching unit checks mode switching through a corresponding user selection to check whether a current mode is an authoring mode.
  • step 114 the process moves to step 114 to capture a predetermined viewing time point of the currently displayed content.
  • the authoring mode is a mode for providing information including a camera viewpoint, narration, and related multimedia content based on a corresponding viewing viewpoint of the content, and the capture is for acquiring corresponding information for visualizing the viewing viewpoint.
  • the author captures a scene of interest in the authoring mode, information at the time of capture, that is, a three-dimensional space that is currently captured, or a remote service server (cloud server, content server) or internet search that is linked through a network.
  • the 3D location, 3D rotation and GPS information acquisition of the author's terminal in the content (the sensor provided in the user terminal Sensed through a plurality of views within the perceived viewing time Stores chebyeol or overall information of the viewing point.
  • the narrator (or spectator) takes a picture of the object of interest while moving with the user terminal equipped with the camera. At this time, the viewing point is stored by estimating the position of the user and the attitude of the camera.
  • contents authored by the on-site authors are displayed on a map background, and the authors of the offline environment can check and modify / supplement the contents authored online.
  • Various viewing stories can be produced through writing such as setting the order between viewing viewpoints or setting a tour pass in a space unit.
  • the process 116 collects data related to a predetermined work item based on the viewing viewpoint captured in the process 114.
  • the preset authoring item-related data is data including a camera viewpoint, narration, and related multimedia content.
  • the data may be collected by broadcasting the necessary data through at least one service server distributed in a network.
  • the author Through the data collected through broadcasting, the author records and stores a description of a scene of interest based on a viewing point, or searches and stores related multimedia contents.
  • the related multimedia content is the content corresponding to the highest priority based on the similarity based on the scenario-based (flow that is developed according to the theme of the content) of the corresponding content, and the content retrieved through the correlation analysis based on predetermined related data. Is provided to the author through the authoring interface in.
  • the content may be authored remotely based on the virtual reality environment or the content may be authored based on the augmented reality environment in the field.
  • Authorable contents include camera viewpoint, narration, and related multimedia contents that enable information to be provided based on the viewing viewpoint, wherein the related multimedia contents are based on the pre-stored metadata of the viewing viewpoint.
  • the content text, picture, photo, video, etc.
  • Annotations of an image method and visual effects using color and image filters may be added to a scene corresponding to a viewing point.
  • step 118 the data for each copyrighted item collected based on a preset AR content policy is rendered, and stored according to metadata corresponding to the viewing time point.
  • the metadata refers to detailed information corresponding to the viewing viewpoints.
  • the metadata includes content types, identifiers, location information in the contents, and objects existing in each preset viewing viewpoint region. Includes detailed information of each star and responsiveness.
  • the area of the viewing point is set based on a specific object when generating the corresponding content, or the viewing is captured when the author captures the viewing point by classifying the viewing point into a plurality of intervals according to the content type.
  • Stores the collected item-specific data by matching the pre-stored metadata corresponding to a specific object of the viewpoint or searches the captured viewing viewpoint at the classified viewing viewpoint of the corresponding content and stores the matching viewing metadata in the retrieved viewing viewpoint metadata. .
  • information such as a point of the feature map, a keyframe image, a camera viewpoint posture information, GPS position coordinates, a recording file, and a camera image image corresponding to the viewing viewpoint is displayed in FIG. 5. It is stored in the server's content database.
  • the standard of the information is in the form of XML (Extensible Markup Language), and includes one GPS value, one feature map data, and N viewpoint view nodes.
  • the viewpoint view includes N augmented contents.
  • the stored XML file and content resource can be accessed as shown in FIG. 6 through a folder.
  • media files such as an image and a voice corresponding to the viewing point are stored in real time in the content DB of the content server.
  • the authoring mode for supporting the viewing time-based information providing service when performing a service for providing augmented reality-based content service is supported, augmented reality based from a client terminal connected to the network
  • the authoring mode related to content authoring is executed, data related to a predetermined authoring item based on a predetermined viewing point in the content to be guided are collected, and data for each authoring item collected based on a preset AR content service policy is rendered.
  • Meta day If the data is matched with the metadata for each viewing time point corresponding to the content, the metadata is matched with the content displayed in the viewing area and augmented to be provided to the corresponding client terminal.
  • step 120 when the mode is switched to the viewer mode by checking whether the viewer mode is present, the process moves to step 122 to acquire state information of the sensed user.
  • the state information of the user may be based on, for example, a user based on a touch screen input (two-dimensional touch screen coordinate information, touch input, swipe input information, etc.) based on an information processing device having visualization software installed thereon, and a viewer device. It is obtained through motion input information (three-dimensional rotation information, etc.), color image from the camera connected to the information processing device, depth map image using depth camera, three-dimensional movement and three-dimensional rotation using electromagnetic sensor. Information, acceleration of the viewer device and gyro sensor based motion information (three-dimensional rotation information), compass sensor information (one-dimensional rotation information), GPS sensor information (two-dimensional moving coordinates).
  • Electromagnetic field sensor image-based camera tracking technology (3D movement, 3D rotation information can be obtained based on the object from which feature points can be extracted within near / far), built-in motion sensor (2D position based on GPS sensor) Information, the yaw rotation direction information using the compass sensor, three-axis rotation information can be obtained by using the gyro sensor).
  • step 124 the metadata of the viewing time of the content displayed in the preset periodic viewing area is checked based on the user state information, and in step 126, the metadata is checked according to the viewing time corresponding to the corresponding content. If it matches with and proceeds to step 128, the metadata is matched with the content displayed in the viewing area to enhance.
  • a viewing time point in which the motion information obtained by acquiring the motion information of the user in a real three-dimensional space or a predetermined scenario-based virtual reality space that is viewed according to the movement of the user corresponds to the corresponding content. It is a mode that guides the user to the preferred viewing point by object by presenting a viewing point guide (visual cue) that enables augmented reality experience when it matches each star's metadata.
  • a viewing point guide visual cue
  • the user accesses the content at a specific location, the user can easily find the viewing point by presenting a visual cue that enables augmented reality experience based on precise camera posture tracking technology. To be.
  • an information annotation associated with an object is visualized.
  • the location of the annotation is pre-mapped from the author (curator or other user) to make it easy for the user to see where he or she is looking and where.
  • FIG. 8 is a diagram illustrating a screen in which the visualization concept image of FIG. 7 is applied to an actual screen. As shown in FIG. 8, the left side shows the location information in a distant state, and the right side is an exemplary view showing the approach of the location information point.
  • FIG. 4 is an exemplary view of a screen to which a method for providing augmented reality-based dynamic service according to an embodiment of the present invention is applied. Induced, the authored content is augmented when the viewer moves to the viewing position as shown in Figure 4b).
  • Figure 2 is a method for providing augmented reality-based dynamic service according to an embodiment of the present invention, the client (author or user) and augmented reality based
  • the operation flow between the servers providing the dynamic service is schematically shown, and the client 210 corresponding to the author for the viewing viewpoint information registration (S216) of the scene of interest is the user position, the 3D camera position / viewing position information (218). ) And information 220 about the viewing position, camera posture, narration, and the like, to the server 212.
  • the user's position and the 3D camera position / viewing posture information 218 received from the client 210 are searched for meta information about the viewing point and related content similarity calculation / viewing through the content DB 224.
  • the candidate selection 222 is performed, and the information 220 regarding the viewing position, the camera posture, the narration, and the like is performed based on the viewing position / viewing augmented reality content authoring / supplementation 226 to correspond to the client 214, respectively. Is sent to the user terminal.
  • the operation of the meta information search and related content similarity calculation / candidate selection (222) and the viewing position / viewing-based augmented reality content authoring / compensation (226) are related to the viewing position / viewing-based augmented reality content authoring.
  • the information provided according to the viewing position / view-based augmented reality content authoring / correction / complement 226 operation is calculated based on the spatiotemporal context query and the related content similarity calculation / candidate selection (222). Is provided through the operation.
  • the user terminal of the client 214 is provided with augmented reality content authoring data based on a viewing position / viewpoint registered at a predetermined viewing time through the augmented reality experiences 228 and 230 at the viewing time.
  • each configuration of FIG. 2 is schematically illustrated as a screen example of 232, 234, and 236.
  • FIG. 3 is a flowchart illustrating an operation of an augmented / virtual reality-based content authoring and visualization software platform to which the augmented reality-based dynamic service providing method according to an exemplary embodiment of the present invention is applied.
  • the sensor-based location is performed through the operation of step 312 when the built-in sensor according to the system input in the authoring mode and the camera image data input according to the mode set in the corresponding terminal through the input device 310 of the terminal.
  • User location recognition is performed by classifying viewpoints or image-based locations and viewpoints, and space telling authoring is performed through scene selection and content matching (arrangement) by performing operation 314.
  • the button, motion, touch screen-based user input in the viewer mode via the input device 310 of the terminal obtains the user input information through the corresponding user input interpretation 311 and outputs the user's intention in step 314
  • Space telling authoring is performed through scene selection and content matching (layout).
  • the space telling authoring is performed by using the meta information retrieval and content extraction 313 for the context query through the operation of step 313.
  • the related content is provided in the space telling authoring through the meta information retrieval and content extraction 313, and the meta information retrieval and content extraction 313 is performed based on the content DB and the meta information DB of the content server 320. .
  • an example of using an in-situ authoring-based visualization system According to the narrator (or spectator) is carrying a mobile device equipped with a camera. Take a picture of the object of interest. At this time, the viewing point is stored by estimating the position of the user and the attitude of the camera. In addition, related content can be retrieved and stored. Information authored based on the map is stored. Later, you can write additional works in an offline virtual reality environment.
  • contents written by the authors in the field are displayed on the background of a map, and the authors in the offline environment can check, modify, and supplement the contents written online.
  • Various viewing stories can be produced through writing such as setting the order between viewing viewpoints or setting a tour pass in a space unit.
  • viewers may download visualization software and select an authored viewing story.
  • the downloaded story allows the tour pass to be changed dynamically according to the user's profile (interest, desired visit, desired end time, etc.), allowing a personalized story experience.
  • Story points are displayed based on the map, and the viewing viewpoint guide becomes visible when the viewer moves to a nearby location. According to the commentator's point of view, viewers can experience the story.
  • FIG. 9 is a view illustrating an authoring content confirmation screen by calling an XML file in a content server in a web browser in the augmented reality-based dynamic service providing method according to an embodiment of the present invention.
  • a plurality of divided regions 910 and 912 are provided, and preset content display items (Pose, Picture, Narration, Latitude, Longitude, Comment) items are arranged and displayed in a predetermined order, and comments set on the object or stored by user definition according to an interrupt generated in the confirmation blocks 92 and 93 marked in one region of the first location. Is activated and displayed, and a position related to one or all of the objects displayed in the first position is displayed in the second position 912 based on the GPS coordinate-based map 94 according to the user interrupt position movement operation.
  • preset content display items Pose, Picture, Narration, Latitude, Longitude, Comment
  • an object existing on the movement path according to the movement route according to the user interrupt of the GPS coordinate-based map 94 displayed on the second position 912 on which the objects 90 and 91 are displayed is located in the first position ( Corresponding information from the content server is provided according to the related preset content display item displayed on 910 so that at least one object related information is listed and displayed.
  • the first location 910 is changed according to the user interrupt on the GPS coordinate-based map 94 displayed at the second location.

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention comprises the steps of: collecting data associated with a pre-configured authoring item on the basis of a predetermined viewing time point within content to be guided, when an authoring mode for supplying a viewing time-based information providing service is executed at the time of performing a service for providing an augmented reality-based content service; rendering the authoring item-specific data collected on the basis of a pre-configured augmented reality content service policy, matching the rendered data to metadata corresponding to the predetermined viewing time point, and storing the matched data; checking the metadata of the viewing time point of the content displayed on a pre-configured cycle-specific viewing area on the basis of a user's status information sensed when executing a viewer mode; and as a result of the checking, when the metadata of the viewing time point coincides with the viewing time-specific metadata corresponding to the content, matching the metadata to the content displayed on the viewing area and augmenting the content, wherein the content is a real three dimensional space viewed according to the user's movement or a pre-configured scenario-based virtual reality space.

Description

증강현실 기반 동적 서비스 제공 방법 및 장치Augmented reality based dynamic service providing method and apparatus
본 발명은 증강현실 기반 가이드 서비스를 위한 시점 저작 및 뷰어(view)에 관한 것이다.The present invention relates to a viewpoint authoring and a viewer for augmented reality based guide service.
증강현실 저작에 대한 초기 연구는 미국 콜롬비아 대학의 Authoring 3D Hypermedia for Wearable Augmented and Virtual Reality [1]연구로, 저작자가 가상공간의 지도를 기반으로 다양한 멀티미디어를 삽입한 후, 관람자가 실외 모바일 증강현실 시스템을 사용하여 저작된 콘텐츠를 볼 수 있도록 하였다.The initial research on augmented reality authoring is a study of Authoring 3D Hypermedia for Wearable Augmented and Virtual Reality [1] at the University of Columbia, USA. You can use the to view the authored content.
최근 연구 중에, 구글 사의 Auto Awesome [2]은 사용자가 사진을 촬영하고 서버에 업로드 하면, 시간과 위치 정보를 기반으로 여행 기록이 자동으로 생성되는 연구를 선보였다. In a recent study, Google's Auto Awesome [2] presented a study that automatically records travel records based on time and location information when a user takes a picture and uploads it to a server.
뷰어 측면에서, 조지아 공대의 Exploring spatial narratives and mixed reality experiences in Oakland Cemetery [3]연구는 GPS 센서를 이용하여 내레이션을 증강시켜 관람의 체험성을 높이는 연구를 진행했으며, Museum of London: Streetmuseum [4]연구는 위치기반으로 과거에 촬영한 사진을 카메라 영상에 표시하여 관람자가 현장에서 과거의 모습을 볼 수 있도록 하였다. AntarcticAR의 경우 [5], 사용자의 위치를 중심으로 각 콘텐츠들이 위치하는 방향과 거리를 지도상에서 제시함으로써, 사용자가 향하고 있는 방향을 근거로 콘텐츠를 찾아갈 수 있도록 위치 정보를 가시화하였다. On the viewer's side, the Georgia Tech's Exploring spatial narratives and mixed reality experiences in Oakland Cemetery [3] conducted a study to enhance narration by enhancing narration using GPS sensors, and the Museum of London: Streetmuseum [4]. The research shows the pictures taken in the past on the basis of location, so that viewers can see the past in the field. In the case of AntarcticAR [5], the location information is visualized so that the content can be found based on the direction that the user is facing by presenting the direction and distance of each content on the map.
이러한 체험은 지도 내에서 평면적인 위치 정보를 기반으로 단순히 음성 또는 사진을 영상에 표시한 것에 불과하다.This experience is simply a representation of a voice or a picture on the image based on the planar location information in the map.
따라서 본 발명은 관심 장면 캡처링을 통해 관람 시점 정보를 저장하고, 저작자별 관람 시점에 대응하는 관련 멀티미디어 콘텐츠, 나레이션 등을 추가하여 추후 사용자가 최적의 관람 시점에서 관심 대상물에 대한 정보를 획득 가능한 관람 시점 가시화를 위한 증강현실 저작 및 뷰어를 제공하고자 한다.Therefore, the present invention stores viewing point information through capturing a scene of interest and adds related multimedia contents and narration corresponding to the viewing point of each author, so that the user can later obtain information on the object of interest at the optimal viewing point. An augmented reality authoring and viewer for visualizing the viewpoint is provided.
본 발명의 일 견지에 따르면, 증강현실 기반 콘텐츠 서비스 제공을 위한 서비스 수행 시 관람 시점 기반 정보 제공 서비스 지원을 위한 저작 모드가 실행되면, 가이드하고자 하는 콘텐츠 내 소정 관람 시점 기반 기설정된 저작 항목 관련 데이터를 수집하는 과정과, 기설정된 증강현실 콘텐츠 서비스 정책을 기반으로 수집된 저작 항목별 데이터를 렌더링하여 해당 관람 시점에 대응하는 메타 데이터에 매칭하여 저장하는 과정과, 뷰어 모드 실행 시 센싱되는 사용자의 상태 정보를 기반으로 기설정된 주기별 뷰잉 영역에 디스플레이되는 콘텐츠의 관람 시점의 메타 데이터를 체크하는 과정과, 체크 결과, 해당 콘텐츠에 대응하는 관람 시점별 메타 데이터와 일치하는 경우 상기 메타 데이터를 상기 뷰잉 영역에 디스플레이되는 콘텐츠에 정합하여 증강하는 과정을 포함하고, 상기 콘텐츠는 사용자의 움직임에 따라 뷰잉(viewing)되는 실제 3차원 공간 혹은 소정 시나리오 기반 가상 현실 공간임을 특징으로 한다.According to an aspect of the present invention, when an authoring mode for supporting a viewing time-based information providing service is executed when a service for providing an augmented reality-based content service is performed, data related to a predetermined authoring item based on a predetermined viewing time in a content to be guided is displayed. Collecting, storing and matching the collected item-specific data based on a preset AR content service policy, matching and storing metadata corresponding to the viewing time point, and user state information sensed when the viewer mode is executed. Checking the metadata of the viewing time of the content displayed in the predetermined viewing period for each period based on the; and if the check result matches the metadata of the viewing time corresponding to the corresponding content, the metadata is added to the viewing area. Match and enhance the displayed content Comprising the step, and the content is characterized in that, depending on the user's viewing movement (viewing) the actual three-dimensional space or a predetermined scenario-based virtual reality space.
본 발명의 다른 견지에 따르면, 증강현실 기반 콘텐츠 서비스 제공을 위한 서비스 수행 시 관람 시점 기반 정보 제공 서비스 지원을 위한 저작 모드가 지원되고, 네트워크로 연결된 클라이언트 단말로부터 증강현실 기반 콘텐츠 저작 관련 상기 저작 모드가 실행되면, 가이드하고자 하는 콘텐츠 내 소정 관람 시점 기반 기설정된 저작 항목 관련 데이터를 수집하고, 기설정된 증강현실 콘텐츠 서비스 정책을 기반으로 수집된 저작 항목별 데이터를 렌더링하여 해당 관람 시점에 대응하는 메타 데이터에 매칭하여 저장하고, 상기 클라이언트 단말로부터 증강현실 기반 콘텐츠 뷰어 요청 관련 뷰어 모드 실행 시 센싱되는 사용자의 상태 정보를 기반으로 기설정된 주기별 뷰잉 영역에 디스플레이되는 콘텐츠의 관람 시점의 메타 데이터를 체크하고, 체크 결과, 해당 콘텐츠에 대응하는 관람 시점별 메타 데이터와 일치하는 경우 상기 메타 데이터를 상기 뷰잉 영역에 디스플레이되는 콘텐츠에 정합하여 증강하여 해당 클라이언트 단말에 제공하는 콘텐츠 서버를 포함함을 특징으로 한다.According to another aspect of the present invention, when performing a service for providing augmented reality-based content service, the authoring mode for supporting the viewing time-based information providing service is supported, and the authoring mode related to augmented reality-based content authoring from a network connected client terminal When executed, collects data related to a predetermined work item based on a predetermined viewing time point in the content to be guided, renders data collected for each writing item based on a predetermined AR content service policy, and renders the data on the metadata corresponding to the viewing time point. Matches and stores the metadata, and checks and checks the metadata of the viewing time of the content displayed in the preset periodic viewing area based on the user's state information sensed when executing the augmented reality based content viewer request related viewer mode from the client terminal. texture When matching the viewing point-specific metadata corresponding to the content enhancement by matching the content to be displayed for the meta data to the viewing area it is characterized in that it comprises a content server that provides to the client terminal.
본 발명은 증강현실 기반 콘텐츠 서비스에 대한 진화된 콘텐츠 생성이 지속적으로 가능할 뿐만 아니라, 실제 3차원 공간 혹은 소정 시나리오 기반으로 사용자 단말의 디스플레이부에서 표시되는 콘텐츠에 최적화된 콘텐츠를 중심으로 콘텐츠 검색 기능을 활용하여 관람 시점별 최적화된 콘텐츠를 제공 가능하며, 이러한 관람 시점별 저작을 중심으로 사용자의 별도 검색 동작 없이도 사용자 단말을 관심 객체에 접근시키는 동작만으로도 원하는 정보를 획득 가능한 사용자와 저작자 상호 간 인터렉티브한 적응적인 증강현실 기반 콘텐츠 서비스가 가능하여 보다 체험이 강화된 스페이스 텔링이 가능한 효과가 있다.The present invention not only enables the generation of advanced content for AR services, but also provides a content retrieval function based on content optimized for content displayed on a display unit of a user terminal based on an actual three-dimensional space or a predetermined scenario. It is possible to provide optimized contents by viewing point of view, and interactive adaptation between users and authors who can acquire desired information by only accessing the user's terminal to the object of interest without the user's separate searching operation based on the writing by viewing point. As augmented reality-based content service is possible, the experience of enhanced space telling is possible.
도 1은 본 발명의 일 실시 예에 따른 증강현실 기반 동적 서비스 제공 방법에 관한 전체 흐름도.1 is a flowchart illustrating a method for providing augmented reality-based dynamic service according to an embodiment of the present invention.
도 2는 본 발명의 일 실시 예에 따른 증강현실 기반 동적 서비스 제공 방법에 있어서, 클라이언트(저작자 혹은 사용자)와 증강현실 기반 동적 서비스를 제공하는 서버 간의 동작 흐름을 개략적으로 보인 예시도.FIG. 2 is a diagram schematically illustrating an operation flow between a client (author or user) and a server providing an AR-based dynamic service in the AR-based dynamic service providing method according to an embodiment of the present invention.
도 3은 본 발명의 일 실시 예에 따른 증강현실 기반 동적 서비스 제공 방법이 적용된 증강/가상 현실 기반 콘텐츠 저작 및 가시화 소프트웨어 플랫폼에서의 동작을 보인 흐름도.3 is a flowchart illustrating an operation in an augmented / virtual reality-based content authoring and visualization software platform to which a method for providing augmented reality-based dynamic services is applied according to an embodiment of the present invention.
도 4는 본 발명의 일 실시 예에 따른 증강현실 기반 동적 서비스 제공 방법이 적용된 화면 예시도.4 is a diagram illustrating a screen to which the augmented reality-based dynamic service providing method according to an embodiment of the present invention is applied.
도 5는 본 발명의 일 실시 예에 따른 증강현실 기반 동적 서비스 제공 방법에 관련된 정보가 코드화된 예시도.5 is an exemplary diagram in which information related to a method for providing augmented reality-based dynamic service according to an embodiment of the present invention is coded.
도 6은 본 발명의 일 실시 예에 따른 증강현실 기반 동적 서비스 제공 방법에 있어서 XML 파일 및 콘텐츠 리소스 관련 폴더 접근을 보인 화면 예시도.6 is a diagram illustrating a screen access showing an XML file and a folder related to a content resource in the augmented reality-based dynamic service providing method according to an embodiment of the present invention.
도 7은 본 발명의 일 실시 예에 따른 증강현실 기반 동적 서비스 제공 방법에 있어서 사용자 위치/시선 정보 가시화 개념 이미지를 보인 예시도.7 is an exemplary view showing a user location / gaze information visualization concept image in the augmented reality-based dynamic service providing method according to an embodiment of the present invention.
도 8은 본 발명의 일 실시 예에 따른 증강현실 기반 동적 서비스 제공 방법에 있어서 가시화 개념 이미지를 실제 화면에 적용한 화면 예시도.8 is a diagram illustrating a screen in which a visualization concept image is applied to an actual screen in the augmented reality-based dynamic service providing method according to an embodiment of the present invention.
도 9는 본 발명의 일 실시 예에 따른 증강현실 기반 동적 서비스 제공 방법에 있어서, 웹 브라우저에서 콘텐츠 서버에 있는 XML 파일 호출에 의한 저작 내용 확인 화면 예시도.9 is a view illustrating an authoring content confirmation screen by calling an XML file in a content server in a web browser in the augmented reality-based dynamic service providing method according to an embodiment of the present invention.
이하 본 발명에 따른 바람직한 실시 예를 첨부한 도면을 참조하여 상세히 설명한다. 하기 설명에서는 구체적인 구성 소자 등과 같은 특정 사항들이 나타나고 있는데 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐 이러한 특정 사항들이 본 발명의 범위 내에서 소정의 변형이나 혹은 변경이 이루어질 수 있음은 이 기술 분야에서 통상의 지식을 가진 자에게는 자명하다 할 것이다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description, specific details such as specific components are shown, which are provided to help a more general understanding of the present invention, and the specific details may be changed or changed within the scope of the present invention. It is self-evident to those of ordinary knowledge in Esau.
본 발명은 증강현실 기반 가이드 서비스를 위한 시점 저작 및 뷰어(view)에 관한 것으로, 더욱 상세하게는 저작 모드 실행 시 가이드하고자 하는 콘텐츠 내 소정 관람 시점 기반 기설정된 저작 항목 관련 데이터를 수집하여 메타 데이터로 저장하고, 뷰어 모드 실행 시 센싱되는 사용자의 상태 정보를 기반으로 기설정된 주기별 뷰잉 영역에 디스플레이되는 콘텐츠의 관람 시점의 메타 데이터를 체크하여 해당 콘텐츠에 대응하는 소정 관람 시점의 메타 데이터와 일치하는 경우 상기 메타 데이터를 상기 뷰잉 영역에 디스플레이되는 콘텐츠에 정합하여 증강함으로써 현재 시각적으로 관찰되는 현재 영상 혹은 콘텐츠에 대응하는 관람 시점에 대한 가시화를 통해 사용자가 상기 관람 시점 내 존재하는 다수의 관심 객체에 대한 정보를 획득 가능하고, 실제 3차원 공간 혹은 소정 시나리오 기반으로 사용자 단말의 디스플레이부에서 표시되는 콘텐츠에서 사용자의 인터럽트(interrupt)에 따라 센싱되는 사용자의 움직임 정보를 분석하여 이에 대응하는 관람 시점에 대한 정보(예컨대, 멀티미디어 콘텐츠, 카메라 시점, 내레이션 포함)를 적응적으로 저작하여 해당 콘텐츠의 관람 시점별 메타 데이터로 저장하거나 기저장된 해당 관람 시점에 대응하는 저작 정보를 제공함으로써 증강현실 기반 콘텐츠 서비스에 대한 진화된 콘텐츠 생성이 지속적으로 가능할 뿐만 아니라, 실제 3차원 공간 혹은 소정 시나리오 기반으로 사용자 단말의 디스플레이부에서 표시되는 콘텐츠에 최적화된 콘텐츠를 중심으로 콘텐츠 검색 기능을 활용하여 관람 시점별 최적화된 콘텐츠를 제공 가능하며, 이러한 관람 시점별 저작을 중심으로 사용자의 별도 검색 동작 없이도 사용자 단말을 관심 객체에 접근시키는 동작만으로도 원하는 정보를 획득 가능한 사용자와 저작자 상호 간 인터렉티브한 적응적인 증강현실 기반 콘텐츠 서비스가 가능하여 보다 체험이 강화된 스페이스 텔링이 가능한 기술을 제공하고자 한다.The present invention relates to a viewpoint authoring and a viewer for augmented reality-based guide service, and more specifically, to collect metadata related to a predetermined authoring item based on a predetermined viewing time point in a content to be guided when the authoring mode is executed. Store metadata and check metadata of the viewing time of the content displayed in the preset periodic viewing area based on the state information of the user sensed when the viewer mode is executed and match the metadata of the predetermined viewing time corresponding to the corresponding content. Matching and augmenting the metadata with the content displayed in the viewing area to visualize the viewing viewpoint corresponding to the current image or content that is currently visually observed, so that the user can know information about the plurality of objects of interest present in the viewing viewpoint. Obtainable, real 3 Analyzes the movement information of the user sensed according to the user's interrupt in the content displayed on the display unit of the user terminal based on the original space or a predetermined scenario, and the information on the viewing viewpoint corresponding thereto (eg, multimedia content, camera view) , Narration, etc.) by adaptively authoring and storing the content as metadata for each viewing point of the content, or by providing the authoring information corresponding to the previously saved viewing point of view, it is possible to continuously generate the evolved content for the augmented reality-based content service. Rather, it is possible to provide optimized content for each viewing point by utilizing a content search function based on the content optimized for the content displayed on the display unit of the user terminal based on an actual three-dimensional space or a predetermined scenario. to the center Provides a technology that enables enhanced space-telling experience by enabling interactive and adaptive augmented reality-based content services between users and authors who can acquire desired information by simply accessing the user's terminal to the object of interest without a separate search operation of the user. I would like to.
이하, 본 발명의 일 실시 예에 따른 증강현실 기반 동적 서비스 제공 방법에 대해 도 1을 참조하여 자세히 살펴보기로 한다.Hereinafter, an augmented reality-based dynamic service providing method according to an embodiment of the present invention will be described in detail with reference to FIG. 1.
도 1은 본 발명의 일 실시 예에 따른 증강현실 기반 동적 서비스 제공 방법에 관한 전체 흐름도이다.1 is a flowchart illustrating an augmented reality-based dynamic service providing method according to an embodiment of the present invention.
도 1을 참조하면, 먼저 110 과정에서는 본 발명이 적용된 증강현실 기반 콘텐츠 서비스를 수행한다.Referring to FIG. 1, in step 110, an AR-based content service to which the present invention is applied is performed.
여기서, 상기 콘텐츠는 사용자의 움직임에 따라 뷰잉(viewing)되는 실제 3차원 공간 혹은 소정 시나리오 기반 가상 현실 공간으로, 본 발명이 적용된 콘텐츠는 하기에서 순차적으로 후술되는 바와 같이 증강된(augmented) 혹은 가상(virtual) 현실이 뷰잉(viewing)영역에 디스플레이되어 서비스되는 것으로, 이러한 콘텐츠는 사용자 단말의 특정 프로그램 혹은 어플리케이션의 수행을 통해 지원되거나 혹은 인터넷을 통해 검색되어 서비스되거나, 원격의 서비스 서버로부터 수신되어 서비스되거나 혹은 사용자 촬영을 통해 상기 뷰잉 영역으로부터 입력되는 실제 3차원 공간을 포함한다. 이때, 상기 인터넷을 통해 검색되는 콘텐츠는 가상의 공간에 대응하는 콘텐츠일 수도 있으며, 본 발명의 일 실시 예에 따른 콘텐츠는 해당 콘텐츠 저작자와 콘텐츠 사용자 간 상호작용 기반 피드백(예컨대, 수정/보완)을 통해 지속적으로 업데이트되어 진화하는 콘텐츠 모두를 통틀어 지칭한다.Here, the content is an actual three-dimensional space or a predetermined scenario-based virtual reality space that is viewed according to a user's movement, and the content to which the present invention is applied is augmented or virtual (as described below sequentially). virtual) reality is displayed and serviced in the viewing area, and such content is supported through the execution of a specific program or application of the user terminal or retrieved and serviced through the Internet, or received and serviced from a remote service server. Or an actual three-dimensional space input from the viewing area through user shooting. In this case, the content searched through the Internet may be a content corresponding to a virtual space, the content according to an embodiment of the present invention provides the interaction-based feedback (eg, correction / supplementation) between the content creator and the content user Throughout this we refer to all content that is constantly updated and evolved.
112 과정에서는 사용자 단말에서 증강현실 기반 콘텐츠 서비스 제공을 위한 서비스 수행 시 해당 사용자 선택을 통해 모드 전환부의 모드 스위칭을 체크하여 현재 모드가 저작 모드인지의 여부를 체크한다.In step 112, when the user terminal performs a service for providing an augmented reality-based content service, a mode switching unit checks mode switching through a corresponding user selection to check whether a current mode is an authoring mode.
체크 결과, 사용자 단말의 현재 모드가 저작 모드인 경우, 114 과정으로 이동하여 현재 표시되는 콘텐츠의 소정 관람 시점을 캡쳐(capture)한다.As a result of the check, when the current mode of the user terminal is the authoring mode, the process moves to step 114 to capture a predetermined viewing time point of the currently displayed content.
여기서, 상기 저작 모드는 콘텐츠의 해당 관람 시점을 기반으로 카메라 시점, 내레이션 및 관련 멀티미디어 콘텐츠를 포함하는 정보를 제공하기 위한 모드이고, 상기 캡쳐는 관람 시점 가시화를 위해 대응하는 정보 획득을 위한 것으로, 상세하게는 저작자가 저작 모드에서 관심 장면을 캡처하여 캡쳐된 시점에서의 정보 즉, 현재 촬영되는 3차원 공간일 경우 혹은 또한, 네트워크를 통해 연동된 원격의 서비스 서버 (클라우드 서버, 콘텐츠 서버) 혹은 인터넷 검색을 통해 제공된 가상 공간일 경우 대응하는 콘텐츠의 속성 정보(박물관, 전시관, 콘서트, 지도 등)에 따라 콘텐츠 내 저작자의 단말의 3차원 위치, 3차원 회전 및 GPS 정보 획득(사용자 단말에 구비된 센서를 통해 센싱된)을 통해 상기 콘텐츠의 관람 시점을 인식하여 인식된 관람 시점 내 다수의 객체별 혹은 해당 관람 시점의 전체적인 정보를 저장한다. Here, the authoring mode is a mode for providing information including a camera viewpoint, narration, and related multimedia content based on a corresponding viewing viewpoint of the content, and the capture is for acquiring corresponding information for visualizing the viewing viewpoint. For example, when the author captures a scene of interest in the authoring mode, information at the time of capture, that is, a three-dimensional space that is currently captured, or a remote service server (cloud server, content server) or internet search that is linked through a network. If the virtual space provided through the property information (museum, exhibition hall, concert, map, etc.) of the corresponding content, the 3D location, 3D rotation and GPS information acquisition of the author's terminal in the content (the sensor provided in the user terminal Sensed through a plurality of views within the perceived viewing time Stores chebyeol or overall information of the viewing point.
다시 말해, 해설자(또는 관람자)가 카메라가 장착된 사용자 단말을 들고 이동하면서, 관심 대상물의 사진을 촬영한다. 이때 사용자의 위치, 카메라의 자세 추정을 통해 관람 시점을 저장한다. In other words, the narrator (or spectator) takes a picture of the object of interest while moving with the user terminal equipped with the camera. At this time, the viewing point is stored by estimating the position of the user and the attitude of the camera.
또는, 지도를 배경으로 현장의 저작자가 저작한 내용들이 보여지고, 오프라인 환경의 저작자는 온라인 상에서 저작한 내용들을 확인하고 수정/보완할 수 있다. 관람 시점들 간의 순서들 설정하거나, 공간 단위의 투어 패스를 설정하는 등의 저작을 통해 다양한 관람 스토리를 제작할 수 있다. Alternatively, contents authored by the on-site authors are displayed on a map background, and the authors of the offline environment can check and modify / supplement the contents authored online. Various viewing stories can be produced through writing such as setting the order between viewing viewpoints or setting a tour pass in a space unit.
계속해서, 116 과정에서는 114 과정에서 캡쳐된 관람 시점 기반 기설정된 저작 항목 관련 데이터를 수집한다.Subsequently, the process 116 collects data related to a predetermined work item based on the viewing viewpoint captured in the process 114.
상기 기설정된 저작 항목 관련 데이터는 카메라 시점, 내레이션, 관련 멀티미디어 콘텐츠를 포함하는 데이터로서, 네트워크에 분산된 적어도 하나 이상의 서비스 서버를 통해 데이터를 필요한 데이터를 브로트캐스팅(broadcasting)하여 수집할 수도 있다.The preset authoring item-related data is data including a camera viewpoint, narration, and related multimedia content. The data may be collected by broadcasting the necessary data through at least one service server distributed in a network.
브로드캐스팅을 통해 수집된 데이터를 통해 저작자는 관람 시점 기반 관심 장면에 대한 설명을 녹음하여 저장하거나, 관련 멀티미디어 콘텐츠를 검색하여 함께 저장한다.Through the data collected through broadcasting, the author records and stores a description of a scene of interest based on a viewing point, or searches and stores related multimedia contents.
이때, 상기 관련 멀티미디어 콘텐츠는 해당 콘텐츠의 시나리오 기반(콘텐츠의 테마에 따라 전개되는 흐름)기설정된 관련 데이터를 기준으로 연관관계 분석을 통해 검색된 콘텐츠에서 유사도 기반 최우선순위에 해당하는 콘텐츠로서, 상기 저작 모드에서 저작 인터페이스를 통해 저작자에게 제공된다.In this case, the related multimedia content is the content corresponding to the highest priority based on the similarity based on the scenario-based (flow that is developed according to the theme of the content) of the corresponding content, and the content retrieved through the correlation analysis based on predetermined related data. Is provided to the author through the authoring interface in.
다시 말해, 본 발명의 실시 예에 따르면 원격에서 가상현실 환경을 기반으로 콘텐츠를 저작하거나 현장에서 증강현실 환경을 기반으로 콘텐츠를 저작할 수 있다. 저작할 수 있는 내용은 관람 시점을 기반으로 정보제공을 가능하게 하는 카메라 시점, 내레이션, 관련 멀티미디어 콘텐츠를 포함하는데 이때, 상기 관련 멀티미디어 콘텐츠는 관람 시점의 기저장된 메타 데이터를 기반으로 맥락정보 (Tag/Keyword 검색, 위치, 관심 대상물 식별자 등) 분석을 기반으로 관련성 (콘텐츠 메타정보를 활용)이 가장 높은 콘텐츠 (글, 그림, 사진, 동영상 등)가 자동으로 검색되어 저작자가 저작할 때 활용할 수 있으며, 관람 시점에 해당하는 장면에 대해서 이미지 방식의 주석(Annotation)과 색상 및 영상 필터를 이용한 시각 효과 등을 추가할 수 있다.In other words, according to an exemplary embodiment of the present invention, the content may be authored remotely based on the virtual reality environment or the content may be authored based on the augmented reality environment in the field. Authorable contents include camera viewpoint, narration, and related multimedia contents that enable information to be provided based on the viewing viewpoint, wherein the related multimedia contents are based on the pre-stored metadata of the viewing viewpoint. Based on the analysis of keyword search, location, object identifier, etc.), the content (text, picture, photo, video, etc.) with the highest relevance (using content meta information) is automatically searched for use by authors. Annotations of an image method and visual effects using color and image filters may be added to a scene corresponding to a viewing point.
118 과정에서는 기설정된 증강현실 콘텐츠 서비스 정책(policy)을 기반으로 수집된 저작 항목별 데이터를 렌더링하여 해당 관람 시점에 대응하는 메타 데이터에 매칭하여 저장한다.In step 118, the data for each copyrighted item collected based on a preset AR content policy is rendered, and stored according to metadata corresponding to the viewing time point.
상기 메타 데이터는, 관람 시점별 대응하는 상세 정보를 의미하는 것으로, 콘텐츠 내 다수의 관람 시점을 식별하기 위해 관람 시점에 대한 콘텐츠 타입, 식별자, 콘텐츠 내 위치 정보, 미리 설정된 관람 시점 영역별 존재하는 객체별 상세 정보, 호응도를 포함하는 것으로, 해당 콘텐츠 생성 시 특정 객체를 기준으로 관람 시점의 영역이 설정되거나, 콘텐츠 타입에 따라 관람 시점을 일정 간격별로 복수로 분류하여 저작자가 관람 시점 캡쳐 시 캡쳐된 관람 시점의 특정 객체에 대응하는 기저장된 메타 데이터에 매칭하여 수집된 저작 항목별 데이터를 저장하거나, 캡쳐된 관람 시점을 해당 콘텐츠의 분류된 관람 시점에서 검색하여 검색된 관람 시점의 메타 데이터에 매칭하여 저장한다.The metadata refers to detailed information corresponding to the viewing viewpoints. In order to identify a plurality of viewing viewpoints in the content, the metadata includes content types, identifiers, location information in the contents, and objects existing in each preset viewing viewpoint region. Includes detailed information of each star and responsiveness.The area of the viewing point is set based on a specific object when generating the corresponding content, or the viewing is captured when the author captures the viewing point by classifying the viewing point into a plurality of intervals according to the content type. Stores the collected item-specific data by matching the pre-stored metadata corresponding to a specific object of the viewpoint or searches the captured viewing viewpoint at the classified viewing viewpoint of the corresponding content and stores the matching viewing metadata in the retrieved viewing viewpoint metadata. .
상기 저작 모드 완료 시 해당 관람 시점에 대응하는 특징 맵의 점과 키프레임(keyframe) 이미지, 카메라 시점 자세 정보, GPS 위치 좌표, 녹음 파일, 카메라 영상 이미지 등의 정보가 도 5에 도시된 형태로 콘텐츠 서버의 콘텐츠 데이터베이스에 저장된다. 이때, 정보의 규격은 XML(Extensible Markup Language)형태를 취하며, 1개의 GPS 값, 1개의 특징맵 데이터, N개의 시점 뷰 노드(node)를 포함한다.When the authoring mode is completed, information such as a point of the feature map, a keyframe image, a camera viewpoint posture information, GPS position coordinates, a recording file, and a camera image image corresponding to the viewing viewpoint is displayed in FIG. 5. It is stored in the server's content database. At this time, the standard of the information is in the form of XML (Extensible Markup Language), and includes one GPS value, one feature map data, and N viewpoint view nodes.
그리고, 시점 뷰에는 N개의 증강 콘텐츠가 포함된다.The viewpoint view includes N augmented contents.
상기 저장된 XML 파일 및 콘텐츠 리소스는 폴더를 통해 도 6에 도시된 바와 같이 접근이 가능하다. 현장에서 관람시점을 저장하면, 저장된 상기 관람시점에 대응하는 이미지, 음성 등의 미디어 파일들이 콘텐츠 서버의 콘텐츠 DB에 실시간으로 저장된다.The stored XML file and content resource can be accessed as shown in FIG. 6 through a folder. When the viewing point is stored in the field, media files such as an image and a voice corresponding to the viewing point are stored in real time in the content DB of the content server.
이때, 본 발명의 일 실시 예에 따른 상기 콘텐츠 서버는, 증강현실 기반 콘텐츠 서비스 제공을 위한 서비스 수행 시 관람 시점 기반 정보 제공 서비스 지원을 위한 저작 모드가 지원되고, 네트워크로 연결된 클라이언트 단말로부터 증강현실 기반 콘텐츠 저작 관련 상기 저작 모드가 실행되면, 가이드하고자 하는 콘텐츠 내 소정 관람 시점 기반 기설정된 저작 항목 관련 데이터를 수집하고, 기설정된 증강현실 콘텐츠 서비스 정책을 기반으로 수집된 저작 항목별 데이터를 렌더링하여 해당 관람 시점에 대응하는 메타 데이터에 매칭하여 저장하고, 상기 클라이언트 단말로부터 증강현실 기반 콘텐츠 뷰어 요청 관련 뷰어 모드 실행 시 센싱되는 사용자의 상태 정보를 기반으로 기설정된 주기별 뷰잉 영역에 디스플레이되는 콘텐츠의 관람 시점의 메타 데이터를 체크하고, 체크 결과, 해당 콘텐츠에 대응하는 관람 시점별 메타 데이터와 일치하는 경우 상기 메타 데이터를 상기 뷰잉 영역에 디스플레이되는 콘텐츠에 정합하여 증강하여 해당 클라이언트 단말에 제공한다.At this time, the content server according to an embodiment of the present invention, the authoring mode for supporting the viewing time-based information providing service when performing a service for providing augmented reality-based content service is supported, augmented reality based from a client terminal connected to the network When the authoring mode related to content authoring is executed, data related to a predetermined authoring item based on a predetermined viewing point in the content to be guided are collected, and data for each authoring item collected based on a preset AR content service policy is rendered. Matching and storing the metadata corresponding to the viewpoint, and based on the user's state information sensed when executing the augmented reality based content viewer request related viewer mode from the client terminal, Meta day If the data is matched with the metadata for each viewing time point corresponding to the content, the metadata is matched with the content displayed in the viewing area and augmented to be provided to the corresponding client terminal.
이어서, 120 과정에서는 뷰어 모드 여부를 체크하여 뷰어 모드로 모드 전환된 경우, 122 과정으로 이동하여 센싱되는 사용자의 상태 정보를 획득한다.Subsequently, in step 120, when the mode is switched to the viewer mode by checking whether the viewer mode is present, the process moves to step 122 to acquire state information of the sensed user.
여기서, 상기 사용자의 상태 정보는 예를 들어, 가시화 소프트웨어가 설치된 정보처리 장치를 기반으로 사용자가 터치 스크린 입력(2차원 터치 스크린 좌표 정보, 터치 입력, 스와이프 입력 정보 등)과, 뷰어 장치를 기반으로 한 모션 입력 정보 (3차원 회전 정보 등)를 통해 획득되는 것으로, 정보처리 장치에 연결된 카메라로부터 컬러 이미지, 깊이카메라를 사용한 경우 Depth-map 이미지, 전자기장 센서를 사용한 경우 3차원 이동 및 3차원 회전 정보, 뷰어 장치의 가속도 및 자이로 센서 기반 모션 정보 (3차원 회전 정보), 나침반 센서 정보 (1차원 회전 정보), GPS 센서 정보(2차원 이동 좌표) 등이다.Here, the state information of the user may be based on, for example, a user based on a touch screen input (two-dimensional touch screen coordinate information, touch input, swipe input information, etc.) based on an information processing device having visualization software installed thereon, and a viewer device. It is obtained through motion input information (three-dimensional rotation information, etc.), color image from the camera connected to the information processing device, depth map image using depth camera, three-dimensional movement and three-dimensional rotation using electromagnetic sensor. Information, acceleration of the viewer device and gyro sensor based motion information (three-dimensional rotation information), compass sensor information (one-dimensional rotation information), GPS sensor information (two-dimensional moving coordinates).
또한, 정보처리 장치에 장착된 카메라 (예. 스마트폰의 카메라) 또는 머리 착용형 디스플레이 (Head Mounted Display)에 장착된 카메라의 이동 및 회전 정보를 포함하는 6자유도 자세(Pose)를 획득하기 위해서, 전자기장 센서, 영상 기반 카메라 트래킹 기술 (근/원거리 내에서 특징점들이 추출될 수 있는 대상물을 기준으로 3차원 이동, 3차원 회전 정보 획득 가능), 내장 모션 센서 (GPS 센서를 기반으로 한 2차원 위치 정보, 나침반 센서를 이용하여 요(Yaw) 회전 방향 정보, 자이로(Gyro) 센서를 활용하여 3축 회전 정보 획득 가능)를 활용한다.In addition, to obtain a six degree of freedom pose including movement and rotation information of a camera mounted on the information processing device (eg, a smartphone camera) or a camera mounted on a head mounted display. , Electromagnetic field sensor, image-based camera tracking technology (3D movement, 3D rotation information can be obtained based on the object from which feature points can be extracted within near / far), built-in motion sensor (2D position based on GPS sensor) Information, the yaw rotation direction information using the compass sensor, three-axis rotation information can be obtained by using the gyro sensor).
124 과정에서는 사용자 상태 정보를 기반으로 기설정된 주기별 뷰잉 영역에 디스플레이되는 콘텐츠의 관람 시점의 메타 데이터를 체크하고, 126 과정에서 일치 여부를 체크하여 체크 결과, 해당 콘텐츠에 대응하는 관람 시점별 메타 데이터와 일치하는 경우 128 과정으로 이동하여 상기 메타 데이터를 상기 뷰잉 영역에 디스플레이되는 콘텐츠에 정합하여 증강한다.In step 124, the metadata of the viewing time of the content displayed in the preset periodic viewing area is checked based on the user state information, and in step 126, the metadata is checked according to the viewing time corresponding to the corresponding content. If it matches with and proceeds to step 128, the metadata is matched with the content displayed in the viewing area to enhance.
더욱 상세하게는, 뷰어 모드에서는 사용자의 움직임에 따라 뷰잉(viewing)되는 실제 3차원 공간 혹은 소정 시나리오 기반 가상 현실 공간에서 상기 사용자의 모션 정보를 획득하여 획득된 모션 정보가 해당 콘텐츠에 대응하는 관람 시점별 메타 데이터와 일치하는 경우 증강현실 체험이 가능한 관람 시점 가이드(visual cue)를 제시하여 객체별 선호되는 관람 시점을 사용자에게 가이드하는 모드로서, 가상 현실 혹은 증강현실 환경에서 저작한 콘텐츠를 관람자가 인터렉티브하게 체험할 수 있도록 사용자가 특정 위치의 콘텐츠에 접근을 하게 되면, 정밀한 카메라 자세 추적 기술을 기반으로 증강현실 체험이 가능한 관람 시점 가이드 (Visual cue)을 관람자에게 제시하여 관람자가 쉽게 관람 시점을 찾을 수 있도록 있다.More specifically, in the viewer mode, a viewing time point in which the motion information obtained by acquiring the motion information of the user in a real three-dimensional space or a predetermined scenario-based virtual reality space that is viewed according to the movement of the user corresponds to the corresponding content. It is a mode that guides the user to the preferred viewing point by object by presenting a viewing point guide (visual cue) that enables augmented reality experience when it matches each star's metadata. When the user accesses the content at a specific location, the user can easily find the viewing point by presenting a visual cue that enables augmented reality experience based on precise camera posture tracking technology. To be.
해당 시점은 대상물을 관람하기에 가장 좋은 시점이다. 관람 시점에 사용자가 접근하면, 저작했던 콘텐츠들 (글, 그림, 사진, 동영상, 나레이션, 주석 등)이 나타난다. 이러한 가시화 방법은 기존 GPS 센서 기반의 부정확한 증강현실 응용 기술과 차별화된다. 보조적으로, 사용자는 특정 콘텐츠에 접근하지 않을 경우에는 가상 지도를 통해 위치 정보를 보여줌으로써, 사용자의 접근을 유도한다. This is the best time to see the object. When the user approaches the viewing point, the contents (articles, pictures, photos, videos, narrations, annotations, etc.) that were created appear. This visualization method is differentiated from the inaccurate augmented reality application technology based on the existing GPS sensor. In addition, when the user does not access specific content, the user is shown the location information through the virtual map, thereby inducing the user's access.
도 7을 참조하면, 사용자가 특정 시점에 접근을 하면, 오브젝트와 연결된 정보 주석(annotation)이 가시화된다. 주석의 위치는 저작자(큐레이터 또는 다른 사용자)로부터 미리 매핑되어 사용자가 자신이 어느 곳에서 어디를 바라봐야 하는지에 대한 시선 정보를 쉽게 알 수 있도록 한다.Referring to FIG. 7, when a user approaches a specific time point, an information annotation associated with an object is visualized. The location of the annotation is pre-mapped from the author (curator or other user) to make it easy for the user to see where he or she is looking and where.
한편, 도 8은 도 7의 가시화 개념 이미지를 실제 화면에 적용한 화면 예시도이다. 도 8에 도시된 바와 같이, 좌측에는 멀리 떨어진 상태에서의 위치 정보 가시화를 보인 것이고, 우측에는 위치정보 지점에 접근을 보인 화면 예시도이다.8 is a diagram illustrating a screen in which the visualization concept image of FIG. 7 is applied to an actual screen. As shown in FIG. 8, the left side shows the location information in a distant state, and the right side is an exemplary view showing the approach of the location information point.
여기서, 도 4를 참조하면, 도 4는 본 발명의 일 실시 예에 따른 증강현실 기반 동적 서비스 제공 방법이 적용된 화면 예시도로서 도 4a)에 도시된 바와 같이 저작된 관람 시점으로 사용자의 관람 시점을 유도하고, 도 4b)에 도시된 바와 같이 관람자가 관람 시점 위치로 이동하면 저작된 콘텐츠가 증강된다.Here, referring to FIG. 4, FIG. 4 is an exemplary view of a screen to which a method for providing augmented reality-based dynamic service according to an embodiment of the present invention is applied. Induced, the authored content is augmented when the viewer moves to the viewing position as shown in Figure 4b).
도 1의 증강현실 기반 관람 시점 저작 및 체험 과정을 도 2를 통해 살펴보면, 도 2는 본 발명의 일 실시 예에 따른 증강현실 기반 동적 서비스 제공 방법에 있어서, 클라이언트(저작자 혹은 사용자)와 증강현실 기반 동적 서비스를 제공하는 서버 간의 동작 흐름을 개략적으로 보인 것으로, 관심 장면에 대한 관람 시점 정보 등록(S216)을 위해 저작자에 해당하는 클라이언트(210)가 사용자 위치, 3차원 카메라 위치/시점 자세 정보(218)와 관람 위치, 카메라 자세, 나레이션 등에 관한 정보(220)를 서버(212)로 전달한다.Referring to the augmented reality-based viewing point authoring and experience process of Figure 1 through Figure 2, Figure 2 is a method for providing augmented reality-based dynamic service according to an embodiment of the present invention, the client (author or user) and augmented reality based The operation flow between the servers providing the dynamic service is schematically shown, and the client 210 corresponding to the author for the viewing viewpoint information registration (S216) of the scene of interest is the user position, the 3D camera position / viewing position information (218). ) And information 220 about the viewing position, camera posture, narration, and the like, to the server 212.
상기 서버(212)에서는 클라이언트(210)로부터 수신된 사용자 위치, 3차원 카메라 위치/시점 자세 정보(218)에 대해서는 콘텐츠 DB(224)를 통해 해당 관람 시점에 대한 메타 정보 검색 및 관련 콘텐츠 유사도 계산/후보 선정(222)을 수행하고, 관람 위치, 카메라 자세, 나레이션 등에 관한 정보(220)에 대해서는 관람 위치/시점 기준 증강현실 콘텐츠 저작 수정/보완(226)을 수행하여 각각 클라이언트(214)에 대응하는 사용자 단말로 전송된다.In the server 212, the user's position and the 3D camera position / viewing posture information 218 received from the client 210 are searched for meta information about the viewing point and related content similarity calculation / viewing through the content DB 224. The candidate selection 222 is performed, and the information 220 regarding the viewing position, the camera posture, the narration, and the like is performed based on the viewing position / viewing augmented reality content authoring / supplementation 226 to correspond to the client 214, respectively. Is sent to the user terminal.
이때, 상기 메타 정보 검색 및 관련 콘텐츠 유사도 계산/후보 선정(222)과, 관람 위치/시점 기준 증강현실 콘텐츠 저작 수정/보완(226)의 동작은 관련 콘텐트가 상기 관람 위치/시점 기준 증강현실 콘텐츠 저작 수정/보완(226) 동작 시 제공되며, 상기 관람 위치/시점 기준 증강현실 콘텐츠 저작 수정/보완(226) 동작 시 시공간 맥락 질의에 따른 정보를 상기 메타 정보 검색 및 관련 콘텐츠 유사도 계산/후보 선정(222)의 동작을 통해 제공된다.At this time, the operation of the meta information search and related content similarity calculation / candidate selection (222) and the viewing position / viewing-based augmented reality content authoring / compensation (226) are related to the viewing position / viewing-based augmented reality content authoring. The information provided according to the viewing position / view-based augmented reality content authoring / correction / complement 226 operation is calculated based on the spatiotemporal context query and the related content similarity calculation / candidate selection (222). Is provided through the operation.
상기 클라이언트(214)의 사용자 단말에서는 관람 시점에서 증강 현실 체험(228, 230)을 통해 소정 관람 시점에 등록된 관람 위치/시점 기준 증강현실 콘텐츠 저작 데이터가 제공된다.The user terminal of the client 214 is provided with augmented reality content authoring data based on a viewing position / viewpoint registered at a predetermined viewing time through the augmented reality experiences 228 and 230 at the viewing time.
이와 같은 도 2의 구성별 동작 흐름을 232, 234, 236의 화면 예시도로 개략적으로 보였다.The configuration flow of each configuration of FIG. 2 is schematically illustrated as a screen example of 232, 234, and 236.
도 3은 본 발명의 일 실시 예에 따른 증강현실 기반 동적 서비스 제공 방법이 적용된 증강/가상 현실 기반 콘텐츠 저작 및 가시화 소프트웨어 플랫폼에서의 동작을 보인 흐름도이다.3 is a flowchart illustrating an operation of an augmented / virtual reality-based content authoring and visualization software platform to which the augmented reality-based dynamic service providing method according to an exemplary embodiment of the present invention is applied.
도 3을 참조하면, 단말의 입력 장치(310)를 통해 해당 단말에 설정된 모드에 따라 저작 모드에서의 시스템 입력에 따른 내장 센서, 카메라 영상 데이터 입력인 경우 312 과정의 동작 수행을 통해 센서 기반 위치, 시점 혹은 영상 기반 위치, 시점 여부를 분류하여 사용자 위치 인식을 수행하고, 314 과정의 동작 수행을 통해 관심 장면 선정 및 콘텐츠 정합(배치)을 통해 스페이스 텔링 저작을 수행한다. Referring to FIG. 3, the sensor-based location is performed through the operation of step 312 when the built-in sensor according to the system input in the authoring mode and the camera image data input according to the mode set in the corresponding terminal through the input device 310 of the terminal. User location recognition is performed by classifying viewpoints or image-based locations and viewpoints, and space telling authoring is performed through scene selection and content matching (arrangement) by performing operation 314.
314 과정의 동작을 통해 위치, 시점 및 해당 관람 시점의 정보가 명세된 데이터가 316 과정의 증강 현실 기반 콘텐츠 가시화 및 저작자와 사용자 간 상호 작용을 통해 가시화되어 출력장치(318)의 디스플레이부로 출력된다.Through operation 314, data in which the location, the viewpoint, and the information of the viewing viewpoint are specified is visualized through augmented reality-based content visualization and interaction between the author and the user in step 316, and output to the display unit of the output device 318.
한편, 단말의 입력 장치(310)을 통해 뷰어 모드에서의 버튼, 모션, 터치 스크린 기반 사용자 입력은 대응하는 사용자 입력 해석(311)을 통해 사용자 입력 정보를 획득하여 사용자의 의도를 314 과정으로 출력하여 관심 장면 선정 및 콘텐츠 정합(배치)을 통해 스페이스 텔링 저작을 수행한다. 313 과정의 동작을 통해 맥락 질의에 대한 메타 정보 검색 및 콘텐츠 추출(313)을 이용하여 스페이스 텔링 저작을 수행한다. 이때, 메타 정보 검색 및 콘텐츠 추출(313)을 통해 관련 콘텐츠가 스페이스 텔링 저작 시 제공되며 이러한 메타 정보 검색 및 콘텐츠 추출(313)은 콘텐츠 서버(320)의 콘텐츠 DB 및 메타 정보 DB를 기반으로 수행된다.On the other hand, the button, motion, touch screen-based user input in the viewer mode via the input device 310 of the terminal obtains the user input information through the corresponding user input interpretation 311 and outputs the user's intention in step 314 Space telling authoring is performed through scene selection and content matching (layout). The space telling authoring is performed by using the meta information retrieval and content extraction 313 for the context query through the operation of step 313. At this time, the related content is provided in the space telling authoring through the meta information retrieval and content extraction 313, and the meta information retrieval and content extraction 313 is performed based on the content DB and the meta information DB of the content server 320. .
이러한, 본 발명의 일 실시 예에 따른 증강현실 기반 동적 서비스 제공 방법이 적용된 증강/가상 현실 기반 콘텐츠 저작 및 가시화 소프트웨어 프레임워크 활용 예시를 살펴보면, 먼저 현장 저작 (In-situ authoring) 기반 가시화 시스템 활용 예시에 따르면 해설자(또는 관람자)가 카메라가 장착된 모바일 장치를 들고 이동한다. 관심 대상물의 사진을 촬영한다. 이때 사용자의 위치, 카메라의 자세 추정을 통해 관람 시점을 저장한다. 추가로 관련 콘텐츠를 검색하여 저장할 수 있다. 지도를 기반으로 저작한 정보들이 저장된다. 추후에 오프라인 가상현실 환경에서 추가 저작을 할 수 있다. In the example of using an augmented / virtual reality-based content authoring and visualization software framework to which the augmented reality-based dynamic service providing method according to an embodiment of the present invention is applied, first, an example of using an in-situ authoring-based visualization system According to the narrator (or spectator) is carrying a mobile device equipped with a camera. Take a picture of the object of interest. At this time, the viewing point is stored by estimating the position of the user and the attitude of the camera. In addition, related content can be retrieved and stored. Information authored based on the map is stored. Later, you can write additional works in an offline virtual reality environment.
데스크톱 및 웹 환경에서의 가상현실 기반 가시화 소프트웨어 활용 예시에 따르면 지도를 배경으로 현장의 저작자가 저작한 내용들이 보여지고, 오프라인 환경의 저작자는 온라인 상에서 저작한 내용들을 확인하고 수정/보완할 수 있다. 관람 시점들 간의 순서들 설정하거나, 공간 단위의 투어 패스를 설정하는 등의 저작을 통해 다양한 관람 스토리를 제작할 수 있다. According to an example of using virtualization-based visualization software in desktop and web environments, contents written by the authors in the field are displayed on the background of a map, and the authors in the offline environment can check, modify, and supplement the contents written online. Various viewing stories can be produced through writing such as setting the order between viewing viewpoints or setting a tour pass in a space unit.
관람 사용자 대상 가시화 소프트웨어 활용 예시에 따르면 관람자가 가시화 소프트웨어를 다운로드하고, 저작된 관람 스토리를 선택할 수 있다. 다운로드 된 스토리는 사용자의 프로파일 (관심사, 희망 관람물, 희망 종료 시간 등)에 따라 투어패스가 동적으로 변경되도록 하여 개인화된 스토리 체험이 가능할 수 있도록 한다. 지도를 기반으로 스토리 지점이 표시되고, 관람자가 가까운 위치로 이동하면 관람 시점 가이드가 가시화된다. 해설자의 시점에 맞게 관람자가 스토리를 체험할 수 있다.According to an example of using visualization software for viewers, viewers may download visualization software and select an authored viewing story. The downloaded story allows the tour pass to be changed dynamically according to the user's profile (interest, desired visit, desired end time, etc.), allowing a personalized story experience. Story points are displayed based on the map, and the viewing viewpoint guide becomes visible when the viewer moves to a nearby location. According to the commentator's point of view, viewers can experience the story.
도 9는 본 발명의 일 실시 예에 따른 증강현실 기반 동적 서비스 제공 방법에 있어서, 웹 브라우저에서 콘텐츠 서버에 있는 XML 파일 호출에 의한 저작 내용 확인 화면 예시도이다.9 is a view illustrating an authoring content confirmation screen by calling an XML file in a content server in a web browser in the augmented reality-based dynamic service providing method according to an embodiment of the present invention.
도 9를 참조하면, 복수의 분할된 영역(910, 912)을 갖고, 상기 분할된 제1 위치(910)에 오브젝트(90, 91)별 기설정된 콘텐츠 표시 항목(Pose, Picture, Narration, Latitude, Longitude, Comment)별 아이템이 기설정된 순서로 정렬되어 표시되고, 상기 제1 위치의 일 영역에 마킹된 확인 블록(92, 93)에 발생된 인터럽트에 따라 해당 오브젝트에 설정된 혹은 사용자 정의에 의해 저장된 코멘트가 활성화되어 표시되고, 사용자 인터럽트 위치 이동 동작에 따라 상기 제1 위치에 표시된 오브젝트 어느 하나의 혹은 전체 오브젝트 관련 위치가 GPS 좌표 기반 지도(94)를 기반으로 제2위치(912)에 표시된다.Referring to FIG. 9, a plurality of divided regions 910 and 912 are provided, and preset content display items (Pose, Picture, Narration, Latitude, Longitude, Comment) items are arranged and displayed in a predetermined order, and comments set on the object or stored by user definition according to an interrupt generated in the confirmation blocks 92 and 93 marked in one region of the first location. Is activated and displayed, and a position related to one or all of the objects displayed in the first position is displayed in the second position 912 based on the GPS coordinate-based map 94 according to the user interrupt position movement operation.
이때, 상기 오브젝트(90, 91)이 표시된 제2 위치(912)에 표시된 GPS 좌표 기반 지도(94)의 사용자 인터럽트에 따른 해당 이동 경로에 따라 상기 이동 경로 상에 존재하는 오브젝트가 상기 제1 위치(910)에 표시되어 관련 기설정된 콘텐츠 표시 항목에 따라 콘텐츠 서버로부터의 대응하는 정보가 제공되어 적어도 하나 이상의 오브젝트 관련 정보가 리스트화되어 디스플레이된다.In this case, an object existing on the movement path according to the movement route according to the user interrupt of the GPS coordinate-based map 94 displayed on the second position 912 on which the objects 90 and 91 are displayed is located in the first position ( Corresponding information from the content server is provided according to the related preset content display item displayed on 910 so that at least one object related information is listed and displayed.
이에 따라, 상기 제1 위치(910)은 제2 위치에 표시된 GPS 좌표 기반 지도(94) 상에서 사용자 인터럽트에 따라 해당 아이템이 변경된다.Accordingly, the first location 910 is changed according to the user interrupt on the GPS coordinate-based map 94 displayed at the second location.
상기와 같이 본 발명에 따른 증강현실 기반 동적 서비스 제공 방법 및 장치에 관한 동작이 이루어질 수 있으며, 한편 상기한 본 발명의 설명에서는 구체적인 실시 예에 관해 설명하였으나 여러 가지 변형이 본 발명의 범위를 벗어나지 않고 실시될 수 있다. 따라서 본 발명의 범위는 설명된 실시 예에 의하여 정할 것이 아니고 청구범위와 청구범위의 균등한 것에 의하여 정하여져야 할 것이다.As described above, operations related to a method and apparatus for providing augmented reality-based dynamic service according to the present invention can be made. Meanwhile, the above-described description of the present invention has been described with reference to specific embodiments, but various modifications can be made without departing from the scope of the present invention. Can be implemented. Therefore, the scope of the present invention should not be defined by the described embodiments, but by the claims and equivalents of the claims.
참고문헌references
[1] S. Guven and S. Feiner, Authoring 3D Hypermedia for Wearable Augmented and Virtual Reality, Int. Symp. Wearable Comput. (2003), 118126.[1] S. Guven and S. Feiner, Authoring 3D Hypermedia for Wearable Augmented and Virtual Reality, Int. Symp. Wearable Comput. (2003), 118 126.
[2] Google Auto Awesome. [Online]. Available: https://plus.google.com/photos/takeatour.[2] Google Auto Awesome. [Online]. Available: https://plus.google.com/photos/takeatour.
[3] S. Dow, J. Lee, C. Oezbek, B. Maclntyre, J. D. Bolter, and M. Gandy, Exploring spatial narratives and mixed reality experiences in Oakland Cemetery, Int. Conf. Adv. Comput. Entertain. Technol. (2005), 5160.[3] S. Dow, J. Lee, C. Oezbek, B. Maclntyre, J. D. Bolter, and M. Gandy, Exploring spatial narratives and mixed reality experiences in Oakland Cemetery, Int. Conf. Adv. Comput. Entertain. Technol. (2005), 5160.
[4] Museum of London: Streetmuseum. [Online]. Available: http://www.museumoflondon.org.uk. [4] Museum of London: Streetmuseum. [Online]. Available: http://www.museumoflondon.org.uk .
[5] LEE, Gun A., et al. AntarcticAR: An outdoor AR experience of a virtual tour to Antarctica. In: Mixed and Augmented Reality-Arts, Media, and Humanities (ISMAR-AMH), 2013 IEEE International Symposium on. IEEE, (2013). 29-38.[5] LEE, Gun A., et al. Antarctic AR: An outdoor AR experience of a virtual tour to Antarctica. In: Mixed and Augmented Reality-Arts, Media, and Humanities (ISMAR-AMH), 2013 IEEE International Symposium on. IEEE, (2013). 29-38.

Claims (9)

  1. 증강현실 기반 콘텐츠 서비스 제공을 위한 서비스 수행 시 관람 시점 기반 정보 제공 서비스 지원을 위한 저작 모드가 실행되면, 가이드하고자 하는 콘텐츠 내 소정 관람 시점 기반 기설정된 저작 항목 관련 데이터를 수집하는 과정과,When the authoring mode for supporting the viewing time based information providing service is executed when performing a service for providing augmented reality-based content service, the process of collecting data related to a predetermined authoring item based on a predetermined viewing time in the content to be guided;
    기설정된 증강현실 콘텐츠 서비스 정책을 기반으로 수집된 저작 항목별 데이터를 렌더링하여 해당 관람 시점에 대응하는 메타 데이터에 매칭하여 저장하는 과정과,Rendering data collected for each of the authoring items based on a preset AR content service policy and matching and storing the metadata for the viewing time point;
    뷰어 모드 실행 시 센싱되는 사용자의 상태 정보를 기반으로 기설정된 주기별 뷰잉 영역에 디스플레이되는 콘텐츠의 관람 시점의 메타 데이터를 체크하는 과정과,Checking the metadata at the time of viewing the content displayed in the preset periodic viewing area based on the state information of the user sensed when the viewer mode is executed;
    체크 결과, 해당 콘텐츠에 대응하는 관람 시점별 메타 데이터와 일치하는 경우 상기 메타 데이터를 상기 뷰잉 영역에 디스플레이되는 콘텐츠에 정합하여 증강하는 과정을 포함함을 특징으로 하는 증강현실 기반 동적 서비스 제공 방법.And matching the metadata with the content displayed in the viewing area when the metadata match the metadata for each viewing time corresponding to the corresponding content, and augmenting reality-based dynamic service providing method.
  2. 제1항에 있어서, 상기 저작 모드는,The method of claim 1, wherein the authoring mode,
    콘텐츠의 해당 관람 시점을 기반으로 카메라 시점, 내레이션 및 관련 멀티미디어 콘텐츠를 포함하는 정보를 제공하는 모드이고,This mode provides information including camera viewpoint, narration and related multimedia contents based on the viewing viewpoint of the content.
    상기 관련 멀티미디어 콘텐츠는 해당 콘텐츠의 시나리오 기반 기설정된 관련 데이터를 기준으로 연관관계 분석을 통해 검색된 콘텐츠에서 유사도 기반 최우선순위에 해당하는 콘텐츠로서, 저작 모드에서 저작 인터페이스를 통해 저작자에게 제공됨을 특징으로 하는 증강현실 기반 동적 서비스 제공 방법.The related multimedia content is a content corresponding to the highest priority based on the similarity in the content searched through correlation analysis based on scenario-based preset related data of the corresponding content, and is provided to the author through an authoring interface in an authoring mode. Reality-based dynamic service delivery method.
  3. 제1항에 있어서, 상기 뷰어 모드는,The method of claim 1, wherein the viewer mode,
    사용자의 움직임에 따라 뷰잉(viewing)되는 실제 3차원 공간 혹은 소정 시나리오 기반 가상 현실 공간에서 상기 사용자의 모션 정보를 획득하는 과정과,Acquiring the motion information of the user in an actual three-dimensional space or a predetermined scenario-based virtual reality space that is viewed according to the movement of the user;
    획득된 모션 정보가 해당 콘텐츠에 대응하는 관람 시점별 메타 데이터와 일치하는 경우 증강현실 체험이 가능한 관람 시점 가이드(visual cue)를 제시하여 오브젝트별 선호되는 관람 시점을 사용자에게 가이드하는 과정을 포함함을 특징으로 하는 증강현실 기반 동적 서비스 제공 방법.If the acquired motion information matches the metadata for each viewing point corresponding to the corresponding content, the process includes guiding the user to the preferred viewing point for each object by presenting a viewing point guide (visual cue) capable of augmented reality experience. Augmented reality-based dynamic service providing method characterized in that.
  4. 제1항에 있어서,The method of claim 1,
    상기 콘텐츠는 사용자의 움직임에 따라 뷰잉(viewing)되는 실제 3차원 공간 혹은 소정 시나리오 기반 가상 현실 공간임을 특징으로 하는 증강현실 기반 동적 서비스 제공 방법.The content is augmented reality-based dynamic service providing method characterized in that the actual three-dimensional space or a predetermined scenario-based virtual reality space to be viewed in accordance with the user's movement.
  5. 제1항에 있어서, 상기 뷰어 모드 실행을 위해 저작 모드를 통해 저작된 증강현실 기반 콘텐츠 서비스 제공 화면은,The method of claim 1, wherein the augmented reality-based content service providing screen authored through an authoring mode to execute the viewer mode is provided.
    복수의 분할된 영역을 갖고, 상기 분할된 제1 위치에 오브젝트별 기설정된 콘텐츠 표시 항목별 아이템이 기설정된 순서로 정렬되어 표시되고, 상기 제1 위치의 일 영역에 마킹된 확인 블록에 발생된 인터럽트에 따라 해당 오브젝트에 설정된 혹은 사용자 정의에 의해 저장된 코멘트가 활성화되어 표시되고, 사용자 인터럽트 위치 이동 동작에 따라 상기 제1 위치에 표시된 오브젝트 어느 하나의 혹은 전체 오브젝트 관련 위치가 GPS 좌표 기반 지도를 기반으로 제2위치에 표시됨을 특징으로 하는 증강현실 기반 동적 서비스 제공 방법.An interrupt generated in a confirmation block having a plurality of divided areas, the predetermined content display item-specific items for each object are arranged and displayed in a predetermined order at the divided first location, and marked in one area of the first location. According to the user set or stored by the user defined comments are activated, and according to the user interrupt location movement operation, any one or all of the objects associated with the object displayed in the first location is based on the GPS coordinate-based map Augmented reality-based dynamic service providing method characterized in that displayed in two locations.
  6. 제5항에 있어서, The method of claim 5,
    상기 오브젝트가 표시된 상기 제2 위치에 표시된 GPS 좌표 기반 지도에서 사용자 인터럽트에 따른 해당 이동 경로에 따라 상기 이동 경로 상에 존재하는 오브젝트가 상기 제1 위치에 표시되어 관련 기설정된 콘텐츠 표시 항목에 따라 콘텐츠 서버로부터의 대응하는 정보가 제공되어 적어도 하나 이상의 오브젝트 관련 정보가 리스트화되어 디스플레이됨을 특징으로 하는 증강현실 기반 동적 서비스 제공 방법.In the GPS coordinate-based map displayed at the second location on which the object is displayed, an object existing on the moving path is displayed at the first location according to the corresponding moving path according to the user interrupt, and the content server according to the related preset content display item. And providing corresponding information from at least one object-related information, which is listed and displayed.
  7. 증강현실 기반 콘텐츠 서비스 제공을 위한 서비스 수행 시 관람 시점 기반 정보 제공 서비스 지원을 위한 저작 모드가 지원되고, 네트워크로 연결된 클라이언트 단말로부터 증강현실 기반 콘텐츠 저작 관련 상기 저작 모드가 실행되면, 가이드하고자 하는 콘텐츠 내 소정 관람 시점 기반 기설정된 저작 항목 관련 데이터를 수집하고, 기설정된 증강현실 콘텐츠 서비스 정책을 기반으로 수집된 저작 항목별 데이터를 렌더링하여 해당 관람 시점에 대응하는 메타 데이터에 매칭하여 저장하고, When performing a service for providing an augmented reality-based content service, an authoring mode for supporting a viewing point-based information providing service is supported, and when the authoring mode related to augmented reality-based content authoring is executed from a networked client terminal, the content to be guided is Collects data on a predetermined work item based on a predetermined viewing point, renders the collected work item-specific data based on a preset AR content policy, and stores and matches the metadata corresponding to the viewing point;
    상기 클라이언트 단말로부터 증강현실 기반 콘텐츠 뷰어 요청 관련 뷰어 모드 실행 시 센싱되는 사용자의 상태 정보를 기반으로 기설정된 주기별 뷰잉 영역에 디스플레이되는 콘텐츠의 관람 시점의 메타 데이터를 체크하고, 체크 결과, 해당 콘텐츠에 대응하는 관람 시점별 메타 데이터와 일치하는 경우 상기 메타 데이터를 상기 뷰잉 영역에 디스플레이되는 콘텐츠에 정합하여 증강하여 해당 클라이언트 단말에 제공하는 콘텐츠 서버를 포함함을 특징으로 하는 증강현실 기반 동적 서비스 제공 장치.The metadata of the viewing time of the content displayed in the preset periodic viewing area is checked based on the state information of the user sensed when executing the augmented reality-based content viewer request-related viewer mode from the client terminal. And a content server matching the metadata with the content displayed in the viewing area and providing the corresponding metadata to the corresponding client terminal when the metadata is matched with corresponding viewing viewpoint metadata.
  8. 제7항에 있어서, 상기 저작 모드는,The method of claim 7, wherein the authoring mode,
    콘텐츠의 해당 관람 시점을 기반으로 카메라 시점, 내레이션 및 관련 멀티미디어 콘텐츠를 포함하는 정보를 제공하는 모드이고,This mode provides information including camera viewpoint, narration and related multimedia contents based on the viewing viewpoint of the content.
    상기 관련 멀티미디어 콘텐츠는 해당 콘텐츠의 시나리오 기반 기설정된 관련 데이터를 기준으로 연관관계 분석을 통해 검색된 콘텐츠에서 유사도 기반 최우선순위에 해당하는 콘텐츠로서, 저작 모드에서 저작 인터페이스를 통해 저작자에게 제공됨을 특징으로 하는 증강현실 기반 동적 서비스 제공 장치.The related multimedia content is a content corresponding to the highest priority based on the similarity in the content searched through correlation analysis based on scenario-based preset related data of the corresponding content, and is provided to the author through an authoring interface in an authoring mode. Reality-based dynamic service providing device.
  9. 제7항에 있어서, 상기 뷰어 모드는,The method of claim 7, wherein the viewer mode,
    사용자의 움직임에 따라 뷰잉(viewing)되는 실제 3차원 공간 혹은 소정 시나리오 기반 가상 현실 공간에서 상기 사용자의 모션 정보를 획득하는 과정과,Acquiring the motion information of the user in an actual three-dimensional space or a predetermined scenario-based virtual reality space that is viewed according to the movement of the user;
    획득된 모션 정보가 해당 콘텐츠에 대응하는 관람 시점별 메타 데이터와 일치하는 경우 증강현실 체험이 가능한 관람 시점 가이드(visual cue)를 제시하여 오브젝트별 선호되는 관람 시점을 사용자에게 가이드하는 과정을 포함함을 특징으로 하는 증강현실 기반 동적 서비스 제공 장치.If the acquired motion information matches the metadata for each viewing point corresponding to the corresponding content, the process includes guiding the user to the preferred viewing point for each object by presenting a viewing point guide (visual cue) capable of augmented reality experience. Augmented reality-based dynamic service providing device characterized in that.
PCT/KR2015/005831 2015-03-20 2015-06-10 Method and apparatus for providing augmented reality-based dynamic service WO2016153108A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/559,810 US20180047213A1 (en) 2015-03-20 2015-06-10 Method and apparatus for providing augmented reality-based dynamic service

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2015-0038533 2015-03-20
KR20150038533 2015-03-20
KR10-2015-0081767 2015-06-10
KR1020150081767A KR20160112898A (en) 2015-03-20 2015-06-10 Method and apparatus for providing dynamic service based augmented reality

Publications (1)

Publication Number Publication Date
WO2016153108A1 true WO2016153108A1 (en) 2016-09-29

Family

ID=56977430

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/005831 WO2016153108A1 (en) 2015-03-20 2015-06-10 Method and apparatus for providing augmented reality-based dynamic service

Country Status (1)

Country Link
WO (1) WO2016153108A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106911915A (en) * 2017-02-28 2017-06-30 上海巽晔计算机科技有限公司 Merchandise news based on augmented reality obtains system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120015036A (en) * 2010-08-11 2012-02-21 주식회사 저스트아이디어 System, user terminal unit and method for guiding display information using mobile device
KR20130049220A (en) * 2011-09-22 2013-05-14 조성은 Method and the apparatus for the history culture digital guide by virture reality
KR20140082610A (en) * 2014-05-20 2014-07-02 (주)비투지 Method and apaaratus for augmented exhibition contents in portable terminal
KR20140122126A (en) * 2013-04-09 2014-10-17 삼성전자주식회사 Device and method for implementing augmented reality using transparent display

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120015036A (en) * 2010-08-11 2012-02-21 주식회사 저스트아이디어 System, user terminal unit and method for guiding display information using mobile device
KR20130049220A (en) * 2011-09-22 2013-05-14 조성은 Method and the apparatus for the history culture digital guide by virture reality
KR20140122126A (en) * 2013-04-09 2014-10-17 삼성전자주식회사 Device and method for implementing augmented reality using transparent display
KR20140082610A (en) * 2014-05-20 2014-07-02 (주)비투지 Method and apaaratus for augmented exhibition contents in portable terminal

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HA, TAE JIN ET AL.: "AR Authoring and Viewer System for K-Culture Time Machine", THE HCI SOCIETY OF KOREA, October 2014 (2014-10-01), pages 52 - 53, XP055317767 *
LEE, SUN HO ET AL.: "A Design and Implementation of Ubiquitous Museum(U-Seum) Using Location Based Service and Augmented Reality", KOREAN SOCIEITY FOR INTERNET INFORMATION, vol. 13, no. 4, August 2012 (2012-08-01), pages 63 - 71, XP055317763 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106911915A (en) * 2017-02-28 2017-06-30 上海巽晔计算机科技有限公司 Merchandise news based on augmented reality obtains system

Similar Documents

Publication Publication Date Title
US20180047213A1 (en) Method and apparatus for providing augmented reality-based dynamic service
US11006095B2 (en) Drone based capture of a multi-view interactive digital media
WO2018217008A1 (en) Augmented reality
US10698558B2 (en) Automatic tagging of objects on a multi-view interactive digital media representation of a dynamic entity
KR102480362B1 (en) cloud-based augmented reality
CN112074797A (en) System and method for anchoring virtual objects to physical locations
US20190333478A1 (en) Adaptive fiducials for image match recognition and tracking
WO2011136608A2 (en) Method, terminal device, and computer-readable recording medium for providing augmented reality using input image inputted through terminal device and information associated with same input image
WO2019017582A1 (en) Method and system for collecting cloud sourcing-based ar content templates and automatically generating ar content
WO2018035500A1 (en) Automatic tagging of dynamic objects on a multi-view digital representation
WO2013023705A1 (en) Methods and systems for enabling creation of augmented reality content
US11258945B2 (en) Interactive data visualization environment
WO2016153108A1 (en) Method and apparatus for providing augmented reality-based dynamic service
Cantone et al. Designing virtual interactive objects to enhance visitors' experience in cultural exhibits
WO2017026750A1 (en) Advertisement system and advertisement method using 3d model
US20190378335A1 (en) Viewer position coordination in simulated reality
Bousbahi et al. Mobile augmented reality adaptation through smartphone device based hybrid tracking to support cultural heritage experience
CN114967914A (en) Virtual display method, device, equipment and storage medium
Uemura et al. Digital media information base
WO2021075878A1 (en) Augmented reality record service provision method and user terminal
CN115442519A (en) Video processing method, device and computer readable storage medium
WO2019008186A1 (en) A method and system for providing a user interface for a 3d environment
Iwata et al. Data Sensorium. Spatial Immersive Displays for Atmospheric Sense of Place
Miller et al. An end-to-end framework for multi-view video content: creating multiple-perspective hypervideo to view on mobile platforms
da Silva et al. Immersive mobile telepresence systems: A systematic literature review

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15886556

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15559810

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15886556

Country of ref document: EP

Kind code of ref document: A1