KR20130107917A - Method and apparatus of processing media file for augmented reality services - Google Patents

Method and apparatus of processing media file for augmented reality services Download PDF

Info

Publication number
KR20130107917A
KR20130107917A KR1020120030099A KR20120030099A KR20130107917A KR 20130107917 A KR20130107917 A KR 20130107917A KR 1020120030099 A KR1020120030099 A KR 1020120030099A KR 20120030099 A KR20120030099 A KR 20120030099A KR 20130107917 A KR20130107917 A KR 20130107917A
Authority
KR
South Korea
Prior art keywords
marker
virtual object
media file
box
track
Prior art date
Application number
KR1020120030099A
Other languages
Korean (ko)
Other versions
KR101887548B1 (en
Inventor
이병대
유성열
이링 쉬
송재연
Original Assignee
삼성전자주식회사
경기대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사, 경기대학교 산학협력단 filed Critical 삼성전자주식회사
Priority to KR1020120030099A priority Critical patent/KR101887548B1/en
Priority to US13/838,258 priority patent/US9224246B2/en
Priority to PCT/KR2013/002228 priority patent/WO2013141562A1/en
Priority to EP13763778.1A priority patent/EP2829055B1/en
Publication of KR20130107917A publication Critical patent/KR20130107917A/en
Application granted granted Critical
Publication of KR101887548B1 publication Critical patent/KR101887548B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234318Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into objects, e.g. MPEG-4 objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8453Structuring of content, e.g. decomposing content into time segments by locking or enabling a set of features, e.g. optional functionalities in an executable program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/93Regeneration of the television signal or of selected parts thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PURPOSE: A method for processing a media file and an apparatus thereof can store in advance data for an area on a video in which a virtual object is displayed, effectively providing augmented reality service. CONSTITUTION: A media file analyzer (210) analyzes a media file including a three-dimensional object track and a marker track to be used in providing augmented reality service. An image playing part (212) extracts video and/or audio data included in a media file and generates video data necessary for video playing. A virtual object playing unit (216) extracts virtual object data included in a media file and generates virtual object data for displaying the virtual object. An image synthesizing unit synthesizes video data and virtual object data and forms a final video. The image synthesizing unit plays the final video on a screen. [Reference numerals] (202) Media file; (204) User input; (210) Media file analyzer; (212) Image playing part; (214) AR processing unit; (216) Virtual object playing unit; (218) Image playing part; (220) Final image

Description

증강현실 서비스를 위한 미디어 파일의 처리 방법 및 장치{METHOD AND APPARATUS OF PROCESSING MEDIA FILE FOR AUGMENTED REALITY SERVICES}METHOD AND APPARATUS OF PROCESSING MEDIA FILE FOR AUGMENTED REALITY SERVICES}

본 발명은 미디어 파일의 처리에 관한 것으로서, 특히, 증강현실(Augmented Reality: AR) 서비스를 위한 미디어 파일을 제공하고 처리하는 방법 및 장치에 관한 것이다.The present invention relates to the processing of media files, and more particularly, to a method and apparatus for providing and processing media files for Augmented Reality (AR) services.

증강현실(AR)은 사용자가 눈으로 보는 현실 세계에 가상 물체(즉 AR 객체)를 겹쳐 보여주는 기술을 의미한다. 실시간 영상/음성 정보에 가상 객체를 합성하거나 관련 정보를 합성하여 증간된 정보 서비스를 제공하는 개념으로 인간의 감각과 인식을 확장한다는 측면에서 확장현실(MR: Mixed Reality)이라고 불리기도 한다. 특히 최근 카메라와 GPS(Global Positioning System) 등 다양한 센서를 내장한 모바일 단말과 스마트폰의 보급이 확산되고, 고속의 모바일 인터넷을 이용한 다양한 융합 서비스들이 선보이면서 모바일 기기를 활용한 증강현실 서비스가 급속히 확산되고 있다.Augmented Reality (AR) refers to a technology in which a virtual object (that is, an AR object) is superimposed on a real world that a user sees. It is a concept of providing augmented information service by synthesizing a virtual object or related information with real-time video / audio information, and it is also referred to as mixed reality (MR) in terms of extending human sense and perception. In particular, the spread of mobile terminals and smartphones with various sensors such as cameras and global positioning systems (GPS) is spreading, and augmented reality services using mobile devices are rapidly spreading as various convergence services using high-speed mobile Internet are introduced. It is becoming.

ISO(International Organization for Standardization) 미디어 파일 포맷(File Format: FF)은 비디오나 오디오와 같은 시간-기반 멀티미디어 파일들을 위한 일반적인 구조를 정의하며, MP4(MEPG(Moving Picture Experts Group)-4)나 3GP(3GPP(3rd Generation Partnership Project) file format)와 같은 다른 파일 포맷의 기반으로 사용된다.The International Organization for Standardization (ISO) Media File Format (FF) defines the general structure for time-based multimedia files, such as video and audio, and includes MP4 (Moving Picture Experts Group) -4 (MEPG) -4 or 3GP ( It is used as the basis for other file formats, such as the 3rd Generation Partnership Project (3GPP) file format.

도 1은 종래 기술에 따른 ISO 기반 미디어 파일의 논리적인 구성을 도시한 것으로서, 도시한 바와 같이 미디어 파일(100)은 파일 헤더 영역(102), 메타데이터 영역(104) 및 미디어 데이터 영역(106)으로 구성된다. 1 illustrates a logical configuration of an ISO-based media file according to the prior art. As illustrated, the media file 100 includes a file header area 102, a metadata area 104, and a media data area 106. It consists of.

파일 헤더 영역(102)은 미디어 파일에 포함된 콘텐트의 기본적인 정보를 포함한다. 예를 들어, 콘텐트 식별자, 콘텐트 제작자, 제작 시간 등과 같은 정보가 파일 헤더에 포함될 수 있다. 미디어 파일이 복수의 트랙 또는 스트림으로 나뉘어지는 경우에는 트랙의 맵 구성 정보를 포함할 수 있다.The file header area 102 includes basic information of the content included in the media file. For example, information such as a content identifier, a content producer, a production time, and the like may be included in the file header. When the media file is divided into a plurality of tracks or streams, the media file may include track configuration information.

메타데이터 영역(104)은 미디어 파일에 포함된 콘텐트의 복수의 미디어 객체에 대한 개별적인 정보를 포함하고 있다. 미디어 객체의 디코딩을 위한 다양한 프로파일 정보 및 미디어 객체의 위치에 대한 정보를 포함한다. 여기서 미디어 객체란 콘텐트의 최소 단위로서, 동영상의 경우 단위 시간마다 화면에 디스플레이 되는 하나의 이미지 프레임이 미디어 객체가 될 수 있고, 음성의 경우 단위 시간마다 재생되는 하나의 오디오 프레임이 미디어 객체가 될 수 있다. 각각의 트랙마다 복수의 미디어 객체가 존재할 수 있으며, 이러한 미디어 객체들을 재생하는데 필요한 정보가 메타데이터 영역(104)에 포함된다. The metadata area 104 includes individual information about a plurality of media objects of the content included in the media file. Various profile information for decoding the media object and information about the location of the media object are included. In this case, the media object is the minimum unit of the content. In the case of a video, one image frame displayed on the screen may be a media object, and in the case of voice, one audio frame may be a media object. have. There may be a plurality of media objects for each track, and information necessary to play these media objects is included in the metadata area 104.

미디어 데이터 영역(106)은 미디어 객체가 실제로 저장되는 영역이다. Media data area 106 is an area where media objects are actually stored.

ISO 기반 미디어 파일의 물리적인 구성은 박스(Box)들로 이루어진다. 개별 박스는 관련 데이터 및 하위 박스들로 구성되거나 또는 하위 박스들로만 구성된 컨테이너 박스로서 존재한다. 예를 들어, 도 1에서 도식화된 트랙은 물리적으로 트랙 박스로 저장되며, 트랙 박스는 트랙 헤더 정보, 미디어 정보, 미디어 디코딩 정보 등을 저장하는 다양한 하위 박스들로 구성된 컨테이너 박스이다.The physical organization of an ISO based media file consists of boxes. Individual boxes exist as container boxes composed of related data and sub-boxes or composed only of sub-boxes. For example, the tracks illustrated in FIG. 1 are physically stored as track boxes, which are container boxes composed of various sub-boxes that store track header information, media information, media decoding information, and the like.

종래의 ISO 기반 미디어 파일은 증강현실 서비스 제공에 필요한 어떠한 메타정보도 정의하고 있지 않으며, 또한 서로 다른 계층에 포함된 멀티미디어 콘텐트의 합성 방법, 즉 영상과 가상 물체를 겹쳐서 재생하기 위한 지시 방법을 제공하지 않는다. 따라서 종래의 ISO 기반 미디어 파일은 증강현실 서비스에 활용하기에는 많은 제약을 가진다. Conventional ISO-based media files do not define any meta-information needed to provide augmented reality services, nor do they provide a method for synthesizing multimedia content included in different layers, that is, an instruction method for superimposing images and virtual objects. Do not. Therefore, the conventional ISO-based media file has a lot of limitations to use for augmented reality service.

종래 기술에서, 미디어 파일을 재생하는 장치는 현재 재생 중인 영상을 실시간으로 분석하여 가상 물체를 표시하기 위한 영역을 추출하고 해당 영역에 가상 물체를 표시한 뒤 재생 중인 영상과 합성하여 최종 영상을 사용자에게 제공한다. 영상 내에서 가상 물체가 표시될 영역을 추출하는 것은 증강현실의 주요 요소기술로서 마커 기반(Marker-based) 기술과 비마커 기반(Markless) 기술로 구분된다. 마커 기반 증강현실에서는 흑백 문양, 바코드 등과 같은 마커라는 특정 이미지가 포함된 영상을 장치가 인식하여 가상 물체가 표시될 영역의 상대적 좌표를 추출하고 이를 바탕으로 가상 물체를 표시하는 반면, 비마커 기반 증강현실에서는 직접 영상 내의 객체를 식별하고 관련된 정보를 획득한다. In the related art, a device for playing a media file analyzes an image currently being played in real time, extracts an area for displaying a virtual object, displays a virtual object in the corresponding area, and then synthesizes the final image with the playing image. to provide. Extracting the area in which the virtual object is to be displayed in the image is classified as a marker-based technology and a non-marker-based technology as a key element technology of augmented reality. In marker-based augmented reality, the device recognizes an image containing a specific image such as a black and white pattern, a barcode, etc., extracts the relative coordinates of the area where the virtual object is to be displayed, and displays the virtual object based on the non-marker-based augmentation. In reality, it directly identifies objects in the image and obtains relevant information.

전자의 경우 가상 물체가 표시될 위치를 비마커 기술에 비해 상대적으로 정확히 제공할 수 있는 장점이 있으나 영상 내에 항상 마커가 포함되어야 하기 때문에 자연스런 영상 제공이 불가능하다. 후자의 경우 영상 내에 마커 삽입을 필요로 하지 않기 때문에 마커 기반 영상에 비해 자연스러울 뿐만 아니라 기존의 증강현실을 고려하지 않고 작성된 미디어 파일에 대해서도 증강현실 서비스 제공이 가능하다. 그러나, 실시간으로 영상 내의 객체를 정확히 인식하여 가상 물체가 표시될 특징점을 추출하는 기술은 마커 기반 기술에 비해서 상대적으로 정확도가 떨어진다. 이와 더불어 현재 제안된 대부분의 비마커 기반 특징점 추출 방법은 수신 단말에서 상당한 계산량의 처리가 요구되며, 이는 궁극적으로 적용된 특징점 추출 알고리즘 및 수신 장치(혹은 재생 장치)의 연산 능력에 따라 증강현실 서비스의 품질이 좌우될 수 있음을 의미한다.The former has the advantage of providing a relatively accurate position where the virtual object is displayed compared to the non-marker technology, but it is impossible to provide a natural image because a marker must always be included in the image. In the latter case, since marker insertion is not required in the image, augmented reality service can be provided for media files created without considering augmented reality, as well as more natural than marker-based images. However, a technique for extracting feature points on which a virtual object is to be displayed by accurately recognizing an object in an image in real time is relatively inferior to a marker-based technique. In addition, most non-marker-based feature point extraction methods currently proposed require significant computational processing at the receiving terminal, which ultimately depends on the feature extraction algorithm and the computing power of the receiving device (or playback device). This can be influenced.

한편, 종래의 증강현실 서비스에서는 해당 서비스를 제공하는 응용 프로그램에 의해 사용자에게 보여지는 가상 물체 및 부가 정보가 결정된다. 예를 들어, 제품 홍보를 위하여 관련 회사의 로고를 영상의 중간중간에 제공하는 증강현실 서비스의 경우, 사용자에게 표시되는 로고는 전적으로 응용 프로그램에 의해 결정되며, 따라서 실제 재생되는 영상의 콘텐트와의 무관하게 광고 이미지가 표시되기 때문에 광고 효과가 저하되는 결과를 초래할 수도 있다. Meanwhile, in the conventional augmented reality service, the virtual object and the additional information shown to the user are determined by an application program providing the corresponding service. For example, in the case of an augmented reality service that provides a logo of a related company in the middle of an image to promote a product, the logo displayed to a user is entirely determined by an application, and thus is irrelevant to the actual content of the image being played. Since the advertisement image is displayed, the effect of the advertisement may be degraded.

본 발명은 미디어 파일을 이용한 증강현실 서비스의 제공 방법 및 이를 위한 장치를 제공한다.The present invention provides a method and apparatus for providing an augmented reality service using a media file.

본 발명은 증강현실 서비스를 제공하기 위한 미디어 파일을 제공하는 방법 및 장치를 제공한다.The present invention provides a method and apparatus for providing a media file for providing an augmented reality service.

본 발명은 증강현실 서비스를 제공하기 위한 미디어 파일을 처리하는 방법 및 장치를 제공한다.The present invention provides a method and apparatus for processing a media file for providing an augmented reality service.

본 발명은 증강현실 서비스를 제공하기 위한 미디어 파일을 재생하는 방법 및 장치를 제공한다.The present invention provides a method and apparatus for playing a media file for providing an augmented reality service.

본 발명은 미디어 파일 내에 증강현실 서비스 제공에 필요한 메타정보, 즉 가상 물체 및 이를 화면에 표시하기 위해 필요한 부가 정보를 내재시키고, 영상과 가상 물체를 겹쳐서 재생하기 위하여 복수의 미디어들의 상관 관계를 표시하는 방법 및 장치를 제공한다.
The present invention embeds meta information necessary for providing an augmented reality service in a media file, that is, a virtual object and additional information necessary for displaying the same on a screen, and displays a correlation of a plurality of media in order to reproduce the image and the virtual object. It provides a method and apparatus.

본 발명의 바람직한 실시예에 따른 방법은; 증강현실 서비스를 위한 미디어 파일의 처리 방법에 있어서, 증강현실 서비스의 제공에 이용되기 위한 마커 트랙과 3차원(3D) 객체 트랙을 포함하는 미디어 파일을 분석하는 과정과, 상기 미디어 파일에 포함된 비디오 및/또는 오디오 데이터를 추출하여 영상 재생에 필요한 영상 데이터를 생성하는 과정과, 상기 미디어 파일에 포함된 가상 물체 정보를 추출하여 가상 물체를 표시하기 위한 가상 물체 데이터를 생성하는 과정과, 상기 영상 데이터와 상기 가상 물체 데이터를 합성하여 최종 영상을 구성하고, 상기 최종 영상을 화면에 재생하는 과정을 포함한다.A method according to a preferred embodiment of the present invention comprises: A method of processing a media file for an augmented reality service, the method comprising: analyzing a media file including a marker track and a three-dimensional (3D) object track for use in providing an augmented reality service, and a video included in the media file; And / or extracting audio data to generate image data necessary for reproducing an image, extracting virtual object information included in the media file to generate virtual object data for displaying the virtual object, and generating the image data. And synthesizing the virtual object data to form a final image, and reproducing the final image on a screen.

본 발명의 다른 실시예에 따른 방법은; 증강현실 서비스를 위한 미디어 파일의 제공 방법에 있어서, 증강현실 서비스의 제공에 이용되기 위한 마커 트랙과 3차원(3D) 객체 트랙을 포함하는 미디어 파일을 저장하는 과정과, 상기 미디어 파일을 제공하는 과정을 포함한다. According to another embodiment of the present invention, there is provided a method comprising: A method of providing a media file for an augmented reality service, the method comprising: storing a media file including a marker track and a three-dimensional (3D) object track for use in providing an augmented reality service, and providing the media file It includes.

본 발명의 바람직한 실시예에 따른 장치는; 증강현실 서비스를 위한 미디어 파일의 처리 장치에 있어서, 증강현실 서비스의 제공에 이용되기 위한 마커 트랙과 3차원(3D) 객체 트랙을 포함하는 미디어 파일을 분석하는 미디어 파일 분석부와, 상기 미디어 파일에 포함된 비디오 및/또는 오디오 데이터를 추출하여 영상 재생에 필요한 영상 데이터를 생성하는 영상 재생부와, 상기 미디어 파일에 포함된 가상 물체 정보를 추출하여 가상 물체를 표시하기 위한 가상 물체 데이터를 생성하는 가상물체 재생부와, 상기 영상 데이터와 상기 가상 물체 데이터를 합성하여 최종 영상을 구성하고, 상기 최종 영상을 화면에 재생하는 영상 합성부를 포함한다.Apparatus according to a preferred embodiment of the present invention; An apparatus for processing a media file for an augmented reality service, the apparatus comprising: a media file analyzer configured to analyze a media file including a marker track and a 3D object track for use in providing an augmented reality service; An image reproducing unit for extracting included video and / or audio data to generate image data necessary for image reproduction, and a virtual object data for generating virtual object data for displaying virtual objects by extracting virtual object information included in the media file An object reproducing unit and an image synthesizing unit composes a final image by synthesizing the image data and the virtual object data, and reproduces the final image on a screen.

본 발명의 다른 실시예에 따른 장치는; 증강현실 서비스를 위한 미디어 파일의 제공 장치에 있어서, 증강현실 서비스의 제공에 이용되기 위한 마커 트랙과 3차원(3D) 객체 트랙을 포함하는 미디어 파일을 저장하는 저장부와, 상기 미디어 파일을 제공하는 제어부를 포함한다.
According to another embodiment of the present invention, there is provided an apparatus comprising: An apparatus for providing a media file for an augmented reality service, the apparatus comprising: a storage unit for storing a media file including a marker track and a 3D object track for use in providing an augmented reality service, and providing the media file It includes a control unit.

본 발명의 개시된 실시예에 따르면, 증강 현실에서 사용되는 가상 물체 및 해당 가상 물체가 표시되는 영상 위에서의 영역에 대한 정보를 미디어 파일 내에 미리 저장함으로써 다양한 증강현실 서비스를 효과적으로 제공할 수 있다. 또한 수신 장치가 증강현실 서비스의 제공에 필요한 정보를 실시간으로 취득하는데 요구되는 배터리 및 계산 능력 등 물리적인 자원 제약 사항을 극복하고, 아울러 이미 존재하는 다양한 종류의 미디어 파일을 증강현실 서비스에 재활용할 수 있다.According to the disclosed embodiment of the present invention, various augmented reality services can be effectively provided by previously storing information about a virtual object used in augmented reality and a region on an image on which the virtual object is displayed in a media file. In addition, the receiver can overcome the physical resource constraints such as battery and computing power required to obtain the information needed to provide AR services in real time, and can also reuse various types of media files that already exist in AR services. have.

본 발명의 개시된 실시예를 활용하면 재생되는 영상과 관련된 회사의 로고를 사용자에게 제공함으로써 광고 효과를 더욱 더 극대화시킬 수 있다. 예를 들어, 드라마 재생 시에는 주연 배우가 착용한 액세서리를 생산하는 회사의 로고를 표시하며, 자동차 경주 중계 방송의 경우 완성차 업체의 로고를 표시할 수 있다.
By utilizing the disclosed embodiments of the present invention, the advertisement effect may be further maximized by providing the user with a logo of a company related to the image to be played. For example, when a drama is played, a logo of a company producing accessories worn by the lead actor may be displayed, and in the case of a car racing broadcast, the logo of a finished car company may be displayed.

도 1은 종래 기술에 따른 ISO 기반 미디어 파일의 논리적인 구성을 도시한 도면.
도 2는 본 발명의 일 실시예에 따라 ISO 미디어 파일 포맷의 확장 부분을 지원하는 미디어 파일 재생 장치를 도식화한 도면.
도 3은 본 발명의 일 실시예에 따른 ISO 미디어 파일 포맷(ISO FF)의 확장 부분을 도식화한 도면.
도 4는 본 발명의 다른 실시예에 따른 ISO 미디어 파일 포맷(ISO FF)을 도식화한 도면.
도 5는 종래의 마커 기반 증강현실의 처리 과정을 간략하게 도식화한 흐름도.
도 6은 가상 물체의 이동속도 및 직선상의 이동위치를 기준으로 마커 구간을 정의한 예를 도식화한 도면.
도 7a 및 도 7b는 본 발명의 일 실시예에 따른 마커 트랙 내의 주요 박스 및 이들 박스간의 상관관계를 도식화한 도면.
도 8은 가상 물체의 이동속도 및 직선상의 이동위치를 기준으로 마커 구간을 정의한 다른 예를 도식화한 도면.
도 9는 본 발명의 일 실시예에 따른 3D 객체 트랙 내의 주요 박스 및 이들 박스간의 상관관계를 도식화한 도면.
도 10은 본 발명의 일 실시예에 따라 마커 구간에서 가상 물체를 영상과 합성하여 재생하는 절차를 도식화한 흐름도.
도 11은 본 발명의 일 실시예에 따른 마커 트랙과 3D 객체 트랙을 적용한 예를 도식화한 도면.
도 12 및 도 13은 본 발명의 일 실시예에 따른 마커 트랙 및 3D 객체 트랙의 주요 박스의 내용을 도시한 도면.
1 illustrates a logical configuration of an ISO based media file according to the prior art.
2 is a diagram illustrating a media file playing apparatus supporting an extended portion of an ISO media file format according to an embodiment of the present invention.
3 is a diagram illustrating an extended portion of an ISO media file format (ISO FF) according to an embodiment of the present invention.
4 is a diagram illustrating an ISO media file format (ISO FF) according to another embodiment of the present invention.
5 is a flow chart briefly illustrating a process of a conventional marker-based augmented reality.
6 is a diagram illustrating an example in which a marker section is defined based on a moving speed of a virtual object and a moving position on a straight line.
7A and 7B are diagrams illustrating the main boxes in a marker track and the correlation between these boxes in accordance with one embodiment of the present invention.
8 is a diagram illustrating another example in which a marker section is defined based on a moving speed of a virtual object and a moving position on a straight line.
9 is a diagram illustrating major boxes in a 3D object track and correlations between these boxes according to an embodiment of the present invention.
10 is a flowchart illustrating a procedure of synthesizing and playing a virtual object with an image in a marker section according to an embodiment of the present invention.
FIG. 11 is a diagram illustrating an example of applying a marker track and a 3D object track according to an embodiment of the present invention. FIG.
12 and 13 illustrate the contents of main boxes of a marker track and a 3D object track according to one embodiment of the invention.

이하 본 발명의 바람직한 실시 예를 첨부된 도면을 참조하여 상세히 설명한다. 그리고, 본 발명을 설명함에 있어서, 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단된 경우 그 상세한 설명은 생략한다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. The following terms are defined in consideration of the functions of the present invention, and these may be changed according to the intention of the user, the operator, or the like. Therefore, the definition should be based on the contents throughout this specification.

이하, ISO 기반 미디어 파일 내부에 증강현실 서비스 제공에 필요한 메타정보를 정보를 저장하기 위한 ISO 미디어 파일 포맷의 확장 부분과, 상기 ISO 미디어 파일 포맷으로 작성된 미디어 파일의 재생을 담당하는 장치에 대하여 설명한다,Hereinafter, an extended portion of an ISO media file format for storing information of meta information necessary for providing augmented reality service in an ISO-based media file, and a device for playing a media file created in the ISO media file format will be described. ,

도 2는 본 발명의 일 실시예에 따라 ISO 미디어 파일 포맷의 확장 부분을 지원하는 미디어 파일 재생 장치를 도식화한 것이다. 미디어 파일 재생 장치(200)는 미디어 파일을 처리하고 증강현실 서비스를 제공할 수 있도록 구성된 수신 장치 내에 구비될 수 있다.2 is a diagram illustrating a media file playing apparatus supporting an extended portion of an ISO media file format according to an embodiment of the present invention. The media file reproducing apparatus 200 may be provided in a receiving device configured to process a media file and provide an augmented reality service.

도 2를 참조하면, 미디어 파일 분석부(210)는 입력으로 주어지는 미디어 파일(202)을 분석하여 증강현실 서비스 제공에 필요한 메타정보를 포함하여 미디어 파일 재생에 필요한 다양한 정보를 추출한다. 증강현실 처리부(214)는 사용자 입력(204)을 바탕으로 증강현실 서비스를 활성화하거나 또는 비활성화한다. 영상 재생부(212)는 미디어 파일에 포함된 비디오/오디오 데이터를 추출하고 이를 처리하여 영상 재생에 필요한 최종 데이터를 생성한다. 이와 유사하게 가상물체 재생부(216)는 미디어 파일에 포함된 가상 물체 정보를 추출하고 이를 처리하여 가상 물체(즉 AR 객체)를 화면(도시하지 않음)에 표시하기 위한 최종 데이터를 생성한다. 영상 합성부(218)는 화면에 표시될 영상 및 가상 물체 데이터를 영상 재생부(212)와 가상 물체 재생부(216)로부터 각각 전달받아 합성하여 최종 영상(220)을 구성하고, 이를 화면에 재생한다. 특히, 영상 합성부(218)는 미디어 파일 분석부(210)와 상호 연동하여 영상과 가상 물체를 표시하기 위한 상관 관계, 즉 영상과 가상 물체를 겹쳐서 재생할 것인지, 영상만을 재생할 것인지 또는 가상 물체만을 재생할 것인지를 결정한다.Referring to FIG. 2, the media file analyzer 210 analyzes the media file 202 given as an input and extracts various information necessary for playing a media file, including meta information necessary for providing an augmented reality service. The augmented reality processor 214 activates or deactivates an augmented reality service based on the user input 204. The image player 212 extracts video / audio data included in the media file and processes the same to generate final data necessary for image reproduction. Similarly, the virtual object reproducing unit 216 extracts the virtual object information included in the media file and processes it to generate final data for displaying the virtual object (ie, AR object) on a screen (not shown). The image synthesizing unit 218 receives the image and the virtual object data to be displayed on the screen from the image reproducing unit 212 and the virtual object reproducing unit 216 to synthesize the final image 220, and reproduces the image on the screen. do. In particular, the image synthesizing unit 218 interoperates with the media file analysis unit 210 to correlate the image and the virtual object, that is, reproduce the image and the virtual object, reproduce only the image, or reproduce only the virtual object. Decide if

도시하지 않을 것이지만, 본 발명의 일 실시예는 본 발명의 일 실시예에 따른 ISO 미디어 파일 포맷의 미디어 파일을 저장하고, 미디어 파일의 처리 및 재생이 가능한 수신 장치 혹은 중간 장치에게 상기 미디어 파일을 제공하는 미디어 파일 제공 장치(일 예로서 미디어 파일 서버)를 개시한다.Although not shown, an embodiment of the present invention stores a media file of an ISO media file format according to an embodiment of the present invention, and provides the media file to a receiving device or an intermediate device capable of processing and playing the media file. A media file providing apparatus (eg, a media file server) is disclosed.

도 3은 본 발명의 일 실시예에 따른 ISO 미디어 파일 포맷(ISO FF)의 확장 부분을 도식화한 것으로서, 도시한 바와 같이 ISO 미디어 파일 포맷(302)은 기존의 ISO 미디어 파일에 존재하는 멀티미디어 콘텐트를 위한 비디오 트랙(306) 및 오디오 트랙(304)과 더불어, 증강현실 서비스를 제공하기 위하여 3차원(3-Dimensional: 3D) 객체 트랙(310)과 마커(Marker) 트랙을 새롭게 정의한다. 3 is a diagram illustrating an extended portion of an ISO media file format (ISO FF) according to an embodiment of the present invention. As shown in FIG. 3, the ISO media file format 302 represents multimedia content existing in an existing ISO media file. In addition to the video track 306 and the audio track 304, a three-dimensional (3D) object track 310 and a marker track are newly defined to provide an augmented reality service.

마커 트랙(308)은 화면에서 가상 물체가 표시될 영역의 상대적 좌표 및 가상 물체를 표현하기 위해 필요한 부가적인 정보를 포함한다. 따라서, 미디어 파일 재생 장치에서는 기존의 마커 기반 증강현실 서비스에서 마커 좌표를 획득하기 위한 과정, 즉 마커 이미지 인식 및 카메라 좌표계를 기준으로 상대적인 마커의 좌표 계산 등의 과정을 거치지 않고 마커 트랙에 포함된 정보만를 사용하여 가상 물체가 표시될 영역을 알 수 있다. The marker track 308 includes the relative coordinates of the area on the screen where the virtual object will be displayed and additional information needed to represent the virtual object. Therefore, in the media file playback apparatus, information included in a marker track without going through a process of acquiring marker coordinates in a conventional marker-based augmented reality service, that is, a marker image recognition and a relative marker coordinate calculation based on a camera coordinate system. Use only to know the area where the virtual object will be displayed.

3D 객체 트랙(310)은 화면에 표시될 가상 물체를 저장하는 트랙으로서 다양한 증강현실 기술을 수용하기 위하여 가상 물체의 표현식을 저장하는 컨테이너로서의 역할을 수행한다. 특히 미디어 파일 내에 복수 개의 3D 객체 트랙이 존재할 수 있다. 개별 3D 객체 트랙은 서로 다른 종류의 부가 정보를 제공하기 위한 가상 물체를 저장하거나 또는 증강현실 서비스 제공자별로 별도의 3D 객체 트랙을 제공함으로써 응용 프로그램에 독립적인 증강현실 서비스 제공이 가능하다.The 3D object track 310 is a track for storing virtual objects to be displayed on the screen, and serves as a container for storing expressions of virtual objects to accommodate various augmented reality technologies. In particular, a plurality of 3D object tracks may exist in the media file. Individual 3D object tracks can provide augmented reality service independent of an application by storing virtual objects for providing different types of additional information or by providing separate 3D object tracks for each augmented reality service provider.

증강현실을 위한 메타정보 정의와 더불어 증강현실을 위한 화면 합성을 지시하기 위한 미디어들간의 상관 관계를 나타내는 방법을 설명한다. 예를 들어, 도 3을 참조하면, 비디오 트랙에서 제공하는 영상 위에 증강현실에서 사용되는 가상 물체를 겹쳐서 재생하거나, 영상 또는 가상 물체만을 단독으로 재생하는 등의 화면 합성을 지시한다. In addition to defining meta information for augmented reality, a method of representing correlations between media for indicating screen composition for augmented reality will be described. For example, referring to FIG. 3, a screen synthesis instruction such as playing a superimposed virtual object used in augmented reality on top of an image provided by a video track, or playing only an image or a virtual object alone is indicated.

도 4는 본 발명의 다른 실시예에 따른 ISO 미디어 파일 포맷(ISO FF)을 도식화한 것이다. 도시한 바와 같이, ISO 미디어 파일 포맷(402)은 오디오 트랙(404) 및 비디오 트랙(406)과 더불어, 추가적인 비디오 트랙을 포함한 기타 미디어 트랙(408)과의 영상과의 합성을 지시할 수 있다.
4 is a diagram illustrating an ISO media file format (ISO FF) according to another embodiment of the present invention. As shown, the ISO media file format 402 may direct the synthesis of the image with the audio track 404 and the video track 406, along with other media tracks 408, including additional video tracks.

1) 마커 트랙1) marker track

마커 트랙의 주요 역할은 화면에서 가상 물체가 표시될 영역의 상대적 좌표 및 가상 물체를 표현하기 위해 필요한 부가적인 정보, 예를 들어, 광원 정보 등을 제공하는 것이다. 즉, 영상 내에 가상의 마커가 있다고 가정하고 해당 마커가 제공하는 모든 정보를 미디어 파일 내에 저장함으로써 실제 영상 내에 마커가 포함된 것과 동일한 효과를 제공한다. The main role of the marker track is to provide the relative coordinates of the area where the virtual object is to be displayed on the screen and additional information required for representing the virtual object, for example, light source information. That is, assuming that there is a virtual marker in the image, all information provided by the marker is stored in the media file, thereby providing the same effect as the marker included in the actual image.

도 5는 종래의 마커 기반 증강현실의 처리 과정을 간략하게 도식화한 흐름도이다. 도 5를 참조하면, 장치는 1단계(502)에서 입력 영상으로부터 마커 이미지를 인식하며, 2단계(504)에서 카메라 좌표를 사용하여 마커 이미지의 3차원 위치(즉 좌표) 및 방향을 계산하고, 3단계(506)에서 장치에 저장된 템플릿과 마커 이미지를 비교하고, 4단계(508)에서 상기 계산된 좌표를 이용하여 3차원 객체로 변환하고, 5단계(510)에서 영상과 가상 물체를 합성하여 화면에 표시한다.5 is a flowchart schematically illustrating a process of a conventional marker-based augmented reality. Referring to FIG. 5, the apparatus recognizes a marker image from an input image in step 502, calculates a three-dimensional position (ie, coordinate) and orientation of the marker image using camera coordinates in step 2 504, In step 506, the marker image is compared with the template stored in the device. In step 508, the image is converted into a three-dimensional object using the calculated coordinates. In step 510, the image and the virtual object are synthesized. Display on the screen.

마커 트랙에 저장되는 주요 정보 중 하나인 좌표 및 방향 정보는 도 5의 1단계에서 3단계(502,504,506)의 과정의 실행 결과물과 대응된다. 결과적으로 장치에서는 기존의 마커 기반 증강현실 서비스에서 마커 좌표를 획득하기 위한 과정, 즉 마커 이미지 인식 및 카메라 좌표계를 기준으로 상대적인 마커의 좌표 계산 등의 과정을 거치지 않고 마커 트랙에 포함된 정보 만를 사용하여 가상 물체가 표시될 영역을 알 수 있다. Coordinate and direction information, which is one of the main information stored in the marker track, corresponds to the execution result of the process of steps 3 (502, 504, 506) in step 1 of FIG. As a result, the device uses only the information contained in the marker track without performing the process of acquiring the marker coordinates in the existing marker-based augmented reality service, that is, recognizing the marker image and calculating the relative marker coordinates based on the camera coordinate system. The area in which the virtual object is to be displayed is known.

영상이 재생될 때 가상 물체는 영상과 함께 시간축을 기준으로 연속적으로 이동해야 될 필요가 있다. 이를 위하여 장치는 가상 물체의 이동 시 발생되는 특징 (예를 들어, 이동속도, 광원 등)을 기준으로 정의된 시간축 상의 마커 구간을 참조하여, 각 구간의 시작점과 종료점에 가상 마커를 위치시킨 뒤 해당 가상 마커의 정보의 미디어 파일에 저장한다. When an image is played back, the virtual object needs to move continuously along the time axis along with the image. To this end, the device refers to the marker sections on the time axis defined based on characteristics (eg, moving speed, light source, etc.) generated when the virtual object moves, and places the virtual markers at the start and end points of each section. Store the virtual marker information in a media file.

마커 구간의 중간 지점에서의 가상 물체의 표현은 시작점과 종료점의 마커 정보를 이용하여 계산된다. 예를 들어, 구간의 시작점에서 가상 물체를 비추는 빛의 밝기가 1,000룩스이고, 종료점에서의 조도가 2,000룩스라고 했을 때, 가상 물체를 시작점에서 종료점으로 시간축으로 연속적으로 이동 시킬 때, 빛의 밝기는 1,000룩스에서 2,000룩스로 점차적으로 증가시키면서 가상 물체를 화면에 표시한다. 따라서, 마커 구간은 가상 물체의 각각의 특성이 점차적으로 증가하거나 또는 감소하는 구간으로 설명될 수 있다. The representation of the virtual object at the midpoint of the marker interval is calculated using the marker information of the start and end points. For example, if the brightness of the light shining on the virtual object at the start of the interval is 1,000 lux and the illuminance at the end point is 2,000 lux, then when the virtual object is moved continuously from the start point to the end point in the time axis, the light brightness is The virtual object is displayed on the screen gradually increasing from 1,000 lux to 2,000 lux. Therefore, the marker section may be described as a section in which each characteristic of the virtual object gradually increases or decreases.

도 6은 가상 물체의 이동속도 및 직선상의 이동위치를 기준으로 마커 구간을 정의한 예를 도식화한 것이다. 6 is a diagram illustrating an example of defining a marker section based on a moving speed of a virtual object and a moving position on a straight line.

도 6을 참조하면, 가상 물체(600)는 영상 재생 후 15분10초에서부터 15분22초 동안 화면에 표시되며, 화면의 좌측 상단에서 우측하단으로 이동한다. 구체적으로 가상 물체(600)는, 마커 구간#1(602) (15:10:00~15:15:00)에서는 화면의 좌측 상단에서 우측 하단으로 일정한 속도로 이동하며, 마커 구간#2(604) (15:15:00~15:20:00)에서는 화면 우측 하단에서 좌측 하단으로 이동한다. 마커 구간#3(606) (15:20:00~15:22:00)에서 객체의 동선은 마커 구간#2와 동일하나 (즉, 화면 우측 하단에서 좌측 하단), 이동 속도가 마커 구간#2와 다르다. 따라서 마커 구간#3(606)은 마커 구간#2(604)와는 별도의 구간으로 정의된다. Referring to FIG. 6, the virtual object 600 is displayed on the screen for 15 minutes 10 seconds to 15 minutes 22 seconds after image playback, and moves from the upper left to the lower right of the screen. In detail, the virtual object 600 moves at a constant speed from the upper left to the lower right of the screen in the marker section # 1 602 (15:10:00 to 15:15:00), and the marker section # 2 (604). ) (15: 15: 00 ~ 15: 20: 00) moves from the bottom right of the screen to the bottom left. In marker section # 3 (606) (15:20:00-15:22:00), the moving line of the object is the same as the marker section # 2 (that is, the lower left to the lower left of the screen), but the moving speed is the marker section # 2 Is different from Therefore, the marker section # 3 606 is defined as a section separate from the marker section # 2 604.

상기와 같이 구별되는 각 구간의 시작점과 종료점에서의 가상 마커의 정보가 미디어 파일에 저장된다. 따라서 구간의 범위가 좁을수록 가상 물체와 영상과의 합성이 더욱 자연스러워질 수 있다.The information of the virtual markers at the start point and the end point of each section distinguished as described above is stored in the media file. Therefore, the narrower the range, the more natural the synthesis of the virtual object and the image.

도 7a는 본 발명의 일 실시예에 따른 마커 트랙 내의 주요 박스 및 이들 박스간의 상관관계를 도식화한 것이다. FIG. 7A illustrates the major boxes in a marker track and the correlation between these boxes in accordance with one embodiment of the present invention.

도 7a를 참조하면, 마커 트랙(700)은 기존 ISO 미디어 파일 포맷에서 정의된 트랙 박스를 확장한 형태를 가지며, 따라서 tkhd (Track Header) 박스(702), mdia (Media) 박스(704)를 포함한다. mdia 박스(704)는 mdhd (Media Header) 박스(706), hdlr (Handler Reference) 박스(708), minf (Media Information) 박스(710), dinf (Data Information) 박스(712)를 포함한다. Referring to FIG. 7A, the marker track 700 has an extended form of a track box defined in an existing ISO media file format, and thus includes a tkhd (Track Header) box 702 and an mdia (Media) box 704. do. The mdia box 704 includes an mdhd (Media Header) box 706, a hdlr (Handler Reference) box 708, a minf (Media Information) box 710, and a dinf (Data Information) box 712.

현재 트랙의 종류를 저장하는 hdlr 박스(708)는 마커 트랙 및 3D 객체 트랙을 지원하기 위하여 도 7b와 같이 확장된다. 확장 이후 hdlr 박스(708) 내의 현재 트랙의 종류를 저장하는 handler_type은 비디오 트랙 'vide', 사운드 트랙 'soun', 힌트 트랙 'hint', 타임 메타데이터 트랙(Timed Metadata track) 'meta', 임시 비디오 트랙(Auxiliary Video track) 'auxv', 위치 트랙(Location track) 'loct', 3D 객체 트랙(3D object track) 'objt' 중 하나로 설정될 수 있다.The hdlr box 708, which stores the current track type, is expanded as shown in FIG. 7B to support marker tracks and 3D object tracks. The handler_type that stores the type of the current track in the hdlr box 708 after expansion is the video track 'vide', the sound track 'soun', the hint track 'hint', the timed metadata track 'meta', and the temporary video. It may be set to one of an auxiliary video track 'auxv', a location track 'loct', and a 3D object track 'objt'.

hdlr 박스(708)의 handler_type이 'loct' 또는 'objt'로 설정될 경우, minf 박스(710) 내의 Media Information Header 박스는 nmhd (Null Media Header) 박스로 설정된다.When handler_type of hdlr box 708 is set to 'loct' or 'objt', the Media Information Header box in minf box 710 is set to nmhd (Null Media Header) box.

마커 트랙(700)은 앞서 기술한 바와 같이 화면에서 가상 물체가 표시될 영역의 상대적 좌표 및 가상 물체를 표현하기 위해 필요한 부가적인 정보를 저장하기 위하여 mtbl (Marker Table)(714)을 포함한다. mtbl 박스(714)는 컨테이너 박스로서 하나의 mkhd (Marker Header) 박스(716)와 0개 이상의 mgrp (Marker Group) 박스(718)로 구성된다. mkhd 박스(716)의 주요 역할 중 하나는 마커 구간에서 사용되는 가상 마커의 비교 대상이 되는 기준 가상 마커에 대한 정보를 저장하는 것이다. The marker track 700 includes a mtbl (Marker Table) 714 to store the relative coordinates of the area where the virtual object is to be displayed on the screen and additional information necessary for representing the virtual object as described above. The mtbl box 714 is a container box and is composed of one mkhd (Marker Header) box 716 and zero or more mgrp (Marker Group) boxes 718. One of the main roles of the mkhd box 716 is to store information about the reference virtual marker to which the virtual marker used in the marker section is compared.

마커 이미지는 사각형, 원형 등 다양한 형태로 존재할 수 있으며, 따라서 mkhd 박스(716) 내의 vmki (Virtual Marker Information) 박스(716a)는 각각의 마커 구간에서 사용되는 가상 마커들의 기준이 되는 가상 마커 정보를 저장한다. 특히 개별 마커 구간에서 사용된 마커 정보와 vmki에 포함된 기준 가상 마커 정보와 비교하여 가상 마커의 확대 또는 축소 정보를 추출할 수 있으며, 이는 궁극적으로 가상 마커 위에 표시되는 가상 물체의 확대 또는 축소를 가능하게 한다.The marker image may exist in various forms such as a rectangle and a circle. Therefore, the virtual marker information (vmki) box 716a in the mkhd box 716 stores virtual marker information that is a reference for the virtual markers used in each marker section. do. In particular, it is possible to extract the enlargement or reduction information of the virtual marker by comparing the marker information used in individual marker sections with the reference virtual marker information included in the vmki, which ultimately allows the enlargement or reduction of the virtual object displayed on the virtual marker. Let's do it.

임의의 두 마커 구간에서 사용되는 가상 물체가 3D 객체 트랙에 저장된 동일한 가상 물체를 사용할 경우 두 마커 구간은 동일 마커 그룹에 포함된다. 도 8의 예를 참조하면, 마커 구간#1(802)과 마커 구간 #3(806)은 동일 그룹에 포함되며, 마찬가지로 마커 구간 #2(804)와 마커 구간 #4(808)도 역시 같은 그룹에 포함된다. 가상 물체가 최종적으로 화면에 표시되는 모습은 가상 마커의 3차원 이동 및 확대/축소에 따라 변할 수 있기 때문에, 마커 그룹의 결정은 실제 화면에 표시되는 가상 물체의 모양에 따라 그룹이 결정되는 것이 아니라 3D 객체 트랙에 저장된 가상 물체를 기준으로 이루어진다. 즉, 두 마커 구간이 3D 객체 트랙에 저장된 동일한 가상 물체를 사용하여 화면에 표시할 경우 상기 두 마커 구간은 같은 그룹에 속하게 된다. 이는 종래의 마커 기반 증강현실에서 마커 내에 포함된 이미지를 식별하여 해당 마커에 표시되어야 하는 가상 물체를 찾는 것과 유사하다. When a virtual object used in any two marker sections uses the same virtual object stored in the 3D object track, the two marker sections are included in the same marker group. Referring to the example of FIG. 8, the marker section # 1 802 and the marker section # 3 806 are included in the same group, and the marker section # 2 804 and the marker section # 4 808 are also the same group. Included in Since the final appearance of the virtual object may change depending on the three-dimensional movement and zooming of the virtual marker, the determination of the marker group is not determined by the shape of the virtual object displayed on the actual screen. It is based on a virtual object stored in the 3D object track. That is, when the two marker sections are displayed on the screen using the same virtual object stored in the 3D object track, the two marker sections belong to the same group. This is similar to identifying images included in a marker in a conventional marker based augmented reality to find a virtual object that should be displayed on that marker.

마커 구간은 mgrp 박스(718) 내의 mint (Marker Interval Information) 박스(718a)에 의해 표현되며, 동일 그룹에 포함되는 모든 마커 구간은 mgrp 박스(718)에 포함된다. mint 박스(718a) 내의 rsmp (Related Sample Information) 박스(718b)는 해당 마커 구간에서 사용되는 샘플 정보를 저장한다.
The marker interval is represented by a mint (Marker Interval Information) box 718a in the mgrp box 718, and all marker intervals included in the same group are included in the mgrp box 718. The related sample information (rsmp) box 718b in the mint box 718a stores sample information used in the corresponding marker section.

하기는 mtbl (Marker Table Box)의 포맷의 일 예를 나타낸 것이다.The following shows an example of the format of a mtbl (Marker Table Box).

aligned(8) class MarkerTable extends Box('mtbl') {aligned (8) class MarkerTable extends Box ('mtbl') {

} }

하기는 mkhd (Marker Header Box)의 포맷의 일 예를 나타낸 것이다.The following shows an example of the format of a marker header box (mkhd).

aligned(8) class MarkerHeader extends Box('mkhd') {aligned (8) class MarkerHeader extends Box ('mkhd') {

unsignedunsigned intint (32)  (32) relatedrelated __ tracktrack __ IDID ;;

unsignedunsigned intint (32)  (32) nextnext __ markermarker __ groupgroup __ IDID ;;

unsignedunsigned intint (32)  (32) markermarker __ groupgroup __ entryentry __ countcount ;;

VirtualMarkerInformationVirtualMarkerInformation ();();

}}

여기서 related_track_ID는 가상 물체가 겹쳐져서 표시되는 비디오 트랙의 ID을 나타내고, next_marker_group_ID는 다음에 사용될 marker_group_ID 값으로서 최초 값은 1로 설정되며, 동일한 marker_group_ID를 사용하는 mgrp 박스는 존재하지 않는다. marker_group_entry_count는 현재 트랙에 포함된 mgrp 박스의 개수를 나타낸다.
Here, related_track_ID represents the ID of a video track displayed by overlapping virtual objects, next_marker_group_ID is a marker_group_ID value to be used next, and an initial value is set to 1, and no mgrp box using the same marker_group_ID exists. The marker_group_entry_count represents the number of mgrp boxes included in the current track.

하기는 vmki (Virtual Marker Information Box)의 포맷의 일 예를 나타낸 것이다. 마커 이미지는 사각형, 원형 등 다양한 형태로 존재할 수 있으며, 아래 기술된 vmki 박스는 사각형으로 구성된 가상 마커를 표시할 경우에 대한 예시이다.The following shows an example of the format of a virtual marker information box (vmki). The marker image may exist in various forms such as a rectangle and a circle. The vmki box described below is an example of displaying a virtual marker composed of rectangles.

aligned(8) class VirtualMarkerInformation extends Box('vmki') {aligned (8) class VirtualMarkerInformation extends Box ('vmki') {

unsignedunsigned intint (32) x1,  (32) x1, y1y1 , , z1z1 ;;

unsignedunsigned intint (32) x2,  (32) x2, y2y2 , , z2z2 ;;

unsignedunsigned intint (32) x3,  (32) x3, y3y3 , , z3z3

unsignedunsigned intint (32) x4,  (32) x4, y4y4 , , z4z4 ;;

}}

여기서 x1, y1, z1는 가상 마커의 좌측 상단 꼭지점의 x, y, z 좌표를 나타내고, x2, y2, z2는 가상 마커의 우측 상단 꼭지점의 x, y, z 좌표를 나타내고, x3, y3, z3은 가상 마커의 좌측 하단 꼭지점의 x, y, z 좌표를 나타내고, x4, y4, z4는 가상 마커의 우측 하단 꼭지점의 x, y, z 좌표를 나타낸다.
Where x1, y1, z1 represent the x, y, z coordinates of the upper left corner of the virtual marker, x2, y2, z2 represent the x, y, z coordinates of the upper right corner of the virtual marker, x3, y3, z3 Denotes the x, y, z coordinates of the lower left corner of the virtual marker, and x4, y4, z4 denotes the x, y, z coordinates of the lower right corner of the virtual marker.

하기는 mgrp (Marker Group Box)의 일 예를 나타낸 것이다.The following shows an example of a mgrp (Marker Group Box).

aligned(8) class MarkerGroup extends Box('mgrp') {aligned (8) class MarkerGroup extends Box ('mgrp') {

unsignedunsigned intint (32)  (32) markermarker __ groupgroup __ IDID ;;

unsignedunsigned intint (32)  (32) nextnext __ markermarker __ intervalinterval __ IDID ;;

unsignedunsigned intint (32)  (32) markermarker __ intervalinterval __ entryentry __ countcount ;;

forfor (i = 1; i <  (i = 1; i < markermarker __ intervalinterval __ entryentry __ countcount ; ++i) {; ++ i) {

MarkerIntervalInformationMarkerIntervalInformation ();();

}}

}}

여기서 marker_group_ID는 해당 마커 그룹의 ID를 나타내고, next_Marker_interval_ID는 다음에 사용될 marker_interval_ID의 값으로서 최초 값은 1로 설정되며, 주어진 mgrp 박스 내에서 동일한 marker_interval_ID를 사용하는 mint 박스는 존재하지 않는다. marker_interval_entry_count는 mgrp 박스에 포함된 mint 박스의 개수를 나타낸다.
Here, marker_group_ID represents the ID of the marker group, next_Marker_interval_ID is the value of marker_interval_ID to be used next, and the initial value is set to 1, and there is no mint box using the same marker_interval_ID in the given mgrp box. The marker_interval_entry_count represents the number of mint boxes included in the mgrp box.

하기는 mint (Marker Interval Information Box)의 포맷의 일 예를 나타낸 것이다.The following shows an example of the format of a mint (Marker Interval Information Box).

aligned(8) class MarkerIntervalInformation extends Box('mint') {aligned (8) class MarkerIntervalInformation extends Box ('mint') {

unsignedunsigned intint (32)  (32) markermarker __ intervalinterval __ IDID ;;

RegionRegion startstart __ regionregion ;;

RegionRegion endend __ regionregion ;;

RelatedSampleInformationRelatedSampleInformation ();();

}}

여기서 marker_interval_ID는 해당 마커 구간의 ID를 나타내고, start_region는 마커 구간의 시작점에 관한 상세 정보를 나타내고, end_region ?? 마커 구간의 종료점에 관한 상세 정보를 나타낸다.
Where marker_interval_ID indicates the ID of the marker section, start_region indicates detailed information about the start point of the marker section, and end_region ?? Detailed information about the end point of the marker section is shown.

하기는 Region (Region Box)의 포맷의 일 예를 나타낸 것이다. Region 박스는 화면에서 가상 물체가 표시될 영역의 상대적 좌표 및 가상 물체를 표현하기 위해 필요한 부가적인 정보 (예를 들어 광원 등)를 저장한다. 아래 예시는 가상 물체의 위치 정보만을 포함하여 기술한 예이다.The following shows an example of the format of a region (Region Box). The Region box stores the relative coordinates of the area on the screen where the virtual object will be displayed and additional information needed to represent the virtual object (for example, a light source). The example below includes only the position information of the virtual object.

aligned(8) class Region extends Box('rinf') {aligned (8) class Region extends Box ('rinf') {

VirtualMarkerInformationVirtualMarkerInformation ();();

}}

하기는 rsmp (Related Sample Information Box)의 포맷의 일 에를 나타낸 것이다.The following shows an example of the format of the rsmp (Related Sample Information Box).

aligned(8) class RelatedSampleInformation extends Box('rsmp') {aligned (8) class RelatedSampleInformation extends Box ('rsmp') {

unsignedunsigned intint (32)  (32) firstfirst __ samplesample ;;

unsignedunsigned intint (32)  (32) samplesample __ countcount ;;

}}

여기서 first_sample는 해당 마커 구간의 첫번째 샘플 번호를 나타내고, sample_count는 해당 마커 구간에 포함되는 전체 샘플의 개수를 나타낸다.
Here, first_sample represents the first sample number of the marker section, and sample_count represents the total number of samples included in the marker section.

2) 3D 객체 트랙2) 3D object track

3D 객체 트랙은 마커 구간에서 사용되는 가상 물체를 기술한다. 특히 다양한 증강현실 콘테트 및 서비스 시나리오를 지원하기 위하여 미디어 파일 내에는 복수 개의 3D 객체 트랙이 존재할 수 있으며, 각각의 3D 객체 트랙은 마커 트랙에 정의된 마커_group_ID와 3D 객체 트랙에 정의된 가상 물체와의 맵핑 정보를 제공한다. 이와 더불어, 3D 객체 트랙은 기준점이 되는 가상 마커 및 해당 가상 마커에서 가상 물체가 어떻게 화면에 표시되어야 하는지에 관한 정보를 저장한다. 즉, 마커 트랙의 mkhd 박스 내에 정의된 vmki 박스에서 명시된 기준 가상 마커 상에서 표시되는 가상 물체의 이동, 회전, 확대/축소 정보를 저장한다.The 3D object track describes the virtual object used in the marker section. In particular, to support various augmented reality content and service scenarios, a plurality of 3D object tracks may exist in a media file, and each 3D object track may have a marker_group_ID defined in a marker track and a virtual object defined in a 3D object track. Provides mapping information with. In addition, the 3D object track stores information about the virtual marker that is a reference point and how the virtual object should be displayed on the screen at the virtual marker. That is, the movement, rotation, and zoom information of the virtual object displayed on the reference virtual marker specified in the vmki box defined in the mkhd box of the marker track is stored.

도 9는 본 발명의 일 실시예에 따른 3D 객체 트랙 내의 주요 박스 및 이들 박스간의 상관관계를 도식화한 것이다. 9 is a diagram of the major boxes in the 3D object track and the correlation between these boxes in accordance with one embodiment of the present invention.

도 9를 참조하면, 3D 객체 트랙(900)은 마커 트랙(700)과 같이 기존 ISO 미디어 파일 포맷에서 정의된 트랙 박스를 확장한 형태를 가지며, 따라서 tkhd (Track Header) 박스(902), mdia (Media) 박스(904)를 포함한다. mdia 박스(904)는 mdhd (Media Header) 박스(906), hdlr (Handler Reference) 박스(908), minf (Media Information) 박스(910), dinf (Data Information) 박스(912)를 포함한다. 3D 객체 트랙을 지원하기 위해 필요한 기존 박스들의 확장은 앞서 기술한 마커 트랙(700)에 대한 설명과 동일하다.Referring to FIG. 9, the 3D object track 900 has an extended form of a track box defined in an existing ISO media file format like the marker track 700, and thus, the tkhd (Track Header) box 902, mdia ( Media) box 904. The mdia box 904 includes an mdhd (Media Header) box 906, a hdlr (Handler Reference) box 908, a minf (Media Information) box 910, and a dinf (Data Information) box 912. Extension of existing boxes required to support the 3D object track is the same as the description of the marker track 700 described above.

3D 객체 트랙(900)은 앞서 기술한 ISO 미디어 파일에서 정의한 기존 박스 이외에 각각의 마커 구간에서 사용되는 가상 물체를 표현하기 위한 otbl (Object Table) 박스(914)를 포함한다. otbl 박스(914)는 컨테이너 박스로서 1개의 othd (Object Table Header) 박스(914a)와 1개의 mtbl (Mapping Table) 박스(914b), 그리고 0개 이상의 odes (Object Description) 박스(914c)로 구성된다. mtbl 박스(914b)는 Maker 트랙의 개별 mgrp 박스에서 사용되는 실제 가상 물체에 대한 맵핑 정보를 제공하며, odes 박스(914c)는 가상 물체를 표현하는 정보를 제공한다. odes 박스(914c)는 가상 물체 표현을 위한 다양한 증강기술을 지원하기 위하여 컨테이너로서의 역할을 수행한다. The 3D object track 900 includes an otbl (Object Table) box 914 for representing a virtual object used in each marker section in addition to the existing box defined in the above-described ISO media file. The otbl box 914 is a container box, which is composed of one othd (Object Table Header) box 914a, one mtbl (Mapping Table) box 914b, and zero or more odes (Object Description) box 914c. . The mtbl box 914b provides mapping information for the actual virtual object used in the individual mgrp box of the Maker track, and the odes box 914c provides information representing the virtual object. odes box 914c serves as a container to support various augmentation techniques for virtual object representation.

ISO 기반 미디어 파일에는 복수개의 3D 객체 트랙이 존재할 수 있으며, 개별 트랙은 제공하는 정보의 유형 또는 서비스 제공자별로 독립적으로 존재한다. 따라서 증강현실 제공 시에는 하나의 3D 객체 트랙만을 연결하여 서비스가 제공되며, 여러 개의 3D 객체 트랙에 존재하는 가상 물체를 혼합하여 사용할 수는 없다.
There may be a plurality of 3D object tracks in an ISO-based media file, and individual tracks exist independently for each type of service or service provider. Therefore, when augmented reality is provided, a service is provided by connecting only one 3D object track, and virtual objects existing in multiple 3D object tracks cannot be mixed and used.

하기는 otbl (3D Object Table Box)의 포맷의 일 예를 나타낸 것이다.The following shows an example of the format of otbl (3D Object Table Box).

aligned(8) class 3DObjectTable extends Box('otbl') {aligned (8) class 3DObjectTable extends Box ('otbl') {

}}

하기는 othd (Object Table Header Box)의 포맷의 일 예를 나타낸 것이다.The following shows an example of the format of an othd (Object Table Header Box).

aligned(8) class ObjectTableHeader extends Box('othd') {aligned (8) class ObjectTableHeader extends Box ('othd') {

unsignedunsigned intint (32)  (32) nextnext __ objectobject __ IDID ;;

unsignedunsigned intint (32)  (32) objectobject __ entryentry __ countcount ;;

unsignedunsigned intint (32)  (32) serviceservice __ providerprovider __ IDID ;;

stringstring descriptiondescription ;;

}}

여기서 next_object_ID는 다음에 사용될 Object_ID 값으로서 최초값은 1로 설정되며, 동일한 Object_ID를 사용하기 위해서는 odes 박스의 type 값이 서로 달라야 한다. object_entry_count는 현재 트랙에 포함된 odes 박스의 개수를 나타내고, service_provider_ID는 3D 객체 트랙을 제공하는 서비스 제공자의 ID를 나타내고, description는 현재 트랙에 대한 부가 설명을 나타낸다.
Here, next_object_ID is the Object_ID value to be used next. The initial value is set to 1, and in order to use the same Object_ID, the odes box type value must be different. object_entry_count represents the number of odes boxes included in the current track, service_provider_ID represents the ID of the service provider providing the 3D object track, and description represents an additional description of the current track.

하기는 mtbl (Mapping Table Box)의 포맷의 일 예를 나타낸 것이다.The following shows an example of the format of mtbl (Mapping Table Box).

aligned(8) class MappingTable extends Box('mtbl') {aligned (8) class MappingTable extends Box ('mtbl') {

unsignedunsigned intint (32)  (32) mappingmapping __ entryentry __ countcount ;;

forfor (i = 1; i <  (i = 1; i < mappingmapping __ entryentry __ countcount ; ++i) {; ++ i) {

unsignedunsigned intint (32)  (32) markermarker __ groupgroup __ IDID ;;

unsignedunsigned intint (32)  (32) objectobject __ IDID ;;

}}

}}

여기서 object_entry_count는 맵핑 정보의 개수를 나타내고, marker_group_ID는 마커 트랙의 mgrp 박스에 정의된 marker_group_ID를 나타내고, object_ID는 marker_group_ID로 식별된 마커 구간에서 사용되어야 하는 가상 물체의 ID를 나타낸다. object_ID는 odes 박스에 정의된다.
Here, object_entry_count indicates the number of mapping information, marker_group_ID indicates marker_group_ID defined in the mgrp box of the marker track, and object_ID indicates the ID of the virtual object to be used in the marker section identified by marker_group_ID. object_ID is defined in the odes box.

하기는 odes (Object Description Box)의 포맷의 일 예를 나타낸 것이다.The following shows an example of the format of the odes (Object Description Box).

aligned(8) class ObjectDescription extends Box('odes') {aligned (8) class ObjectDescription extends Box ('odes') {

unsignedunsigned intint (32)  (32) objectobject __ IDID ;;

unsignedunsigned intint (32)  (32) typetype ;;

stringstring objectobject __ descdesc

templatetemplate int(32)[9]  int (32) [9] transformationtransformation __ matrixmatrix ;;

templatetemplate int(32)[9]  int (32) [9] rotationrotation __ matrixmatrix ;;

templatetemplate int(32)[9]  int (32) [9] scalescale __ matrixmatrix ;;

}}

여기서 object_ID는 해당 가상 물체의 ID를 나타내고, type은 가상 물체를 표현하기 위해 사용된 기술 (e.g., VRML(Virtual Reality Modeling Language), 3DXML(3D Extensible Markup Language) 등)을 지시한다. 동일 object_ID를 사용하는 서로 다른 type으로 기술된 가상 물체가 존재할 수 있으며, 이 경우 미디어 파일 재생 장치는 어떤 기술로 표현된 가상 물체를 사용할 것인지를 결정한다. object_desc는 type으로 지칭된 기술로 표현된 가상 물체를 나타내고, transformation_matrix는 기준 가상 마커 위에서 가상 물체를 표현할 때 사용되는 가상 물체의 이동 계산 시 사용되는 행렬을 나타내고, rotation_matrix는 기준 가상 마커 위에서 가상 물체를 표현할 때 사용되는 가상 물체의 회전 계산 시 사용되는 행렬을 나타내고, scale_matrix는 기준 가상 마커 위에서 가상 물체를 표현할 때 사용되는 가상 물체의 확대/축소 계산 시 사용되는 행렬을 나타낸다.Here, object_ID indicates the ID of the virtual object, and type indicates the technology (e.g., VRML (Virtual Reality Modeling Language), 3D XML (3D Extensible Markup Language), etc.) used to represent the virtual object. There may exist virtual objects described in different types using the same object_ID. In this case, the media file reproducing apparatus determines which technology the virtual objects represented by. object_desc represents a virtual object represented by a technique called type, transformation_matrix represents a matrix used to calculate the movement of the virtual object used to represent the virtual object over the reference virtual marker, and rotation_matrix represents a virtual object over the reference virtual marker. The scale_matrix represents a matrix used to calculate the rotation of the virtual object, and scale_matrix represents a matrix used to calculate the zoom of the virtual object used to represent the virtual object on the reference virtual marker.

odes 박스가 표현하는 정보는 다음과 같다. 마커 트랙에서 정의된 기준 가상 마커를 인식하게 되면 odes 박스의 객체_desc에 정의된 가상 물체를 3차원 이동 및 배율 정보를 저장한 세 개의 행렬값 (i.e., transformation_matrix, rotation_matrix, scale_matrix)를 사용하여 가상 물체가 기준 가상 마커를 기준으로 어떻게 표시되어야 하는지를 결정하게 된다.
The information represented by the odes box is as follows: When the reference virtual marker defined in the marker track is recognized, the virtual object defined in the object_desc of the odes box is virtualized using three matrix values (ie, transformation_matrix, rotation_matrix, and scale_matrix) that store three-dimensional movement and scale information. Determine how the object should be displayed relative to the reference virtual marker.

도 10은 본 발명의 일 실시예에 따라 마커 구간에서 가상 물체를 영상과 합성하여 재생하는 절차를 도식화한 흐름도이다.10 is a flowchart illustrating a procedure of synthesizing and playing a virtual object with an image in a marker section according to an embodiment of the present invention.

도 10을 참조하면, 장치는 1002단계에서 샘플을 기준으로 마커 구간들을 추출하여 정렬하며, 1004단계에서 각 마커 구간의 시작점, 종료점 및 기준 가상 마커를 이용하여 화면에 표시될 가상 객체의 상대적 위치, 방향 및 배율 정보와 해당 객체를 표시하기 위한 부가 정보를 계산하고, 1006단계에서 해당 마커 구간의 market_group_ID와 3D Object 트랙 내의 맵핑 정보를 사용하여 화면에 표시될 가상 객체를 추출하고, 1008단계에서 상기 계산된 가상 객체의 위치, 방향 및 배율 정보와 해당 객체가 정의된 odes 박스 내에 정의된 기준 가상 마커에서의 위치, 방향, 배율 정보를 사용하여 가상 물체가 화면에 표시된 최종 위치 및 모습을 계산한다. 1010에서 장치는 연계된 영상 위에 상기 가상 객체를 합성하여 화면에 재생한다.Referring to FIG. 10, in operation 1002, the apparatus extracts and arranges marker sections based on a sample. In operation 1004, a relative position of a virtual object to be displayed on the screen using a start point, an end point, and a reference virtual marker of each marker section, The virtual object to be displayed on the screen is extracted using the market_group_ID of the marker section and the mapping information in the 3D object track in step 1006, and the additional information for displaying the corresponding object is calculated in step 1008. The position, direction, and magnification information of the virtual object is calculated and the position, direction, and magnification information of the reference virtual marker defined in the odes box in which the object is defined to calculate the final position and appearance of the virtual object on the screen. In operation 1010, the device synthesizes the virtual object on the associated image and plays it on the screen.

도 11은 본 발명의 일 실시예에 따른 마커 트랙과 3D 객체 트랙을 적용한 예를 도식화한 것이다. 11 is a diagram illustrating an example of applying a marker track and a 3D object track according to an embodiment of the present invention.

도 11을 참고하면, 각 마커 구간(1102,1104,1106)은 가상 물체의 직선상의 이동과 이동속도를 기준으로 설정된다. 특히 마커 구간#1(1102)과 마커 구간#3(1106)은 동일한 가상 물체(도시된 예에서 스마일 마크)를 화면에 표시하며, 따라서 두 마커 구간(1102,1106)은 동일한 마커 그룹에 소속된다. Referring to FIG. 11, each marker section 1102, 1104, 1106 is set based on a linear movement and a moving speed of a virtual object. In particular, the marker section # 1 1102 and the marker section # 3 1106 display the same virtual object (smile mark in the illustrated example), so that the two marker sections 1102 and 1106 belong to the same marker group. .

도 11을 위한 마커 트랙 및 3D 객체 트랙의 주요 박스, 즉 mtbl 박스(1202)와 otbl 박스(1302)의 내용은 각각 도 12 및 도 13에 도시된 바와 같다. 도 13을 참조하면 object_ID가 1인 odes 박스(1304a,1304b)가 두 개 존재하며, 각각의 박스(1304a,1304b)는 동일 가상 물체를 서로 다른 기술을 사용하여 표현한다. 일 실시예로서 어떤 기술로 표현된 가상 물체를 사용할 것인지의 판단은 미디어 파일 재생 장치에 의해 이루어질 수 있다.
The contents of the main box of the marker track and the 3D object track, that is, the mtbl box 1202 and the otbl box 1302 for FIG. 11 are as shown in FIGS. 12 and 13, respectively. Referring to FIG. 13, there are two odes boxes 1304a and 1304b having an object_ID of 1, and each of the boxes 1304a and 1304b represents the same virtual object using different techniques. As an example, the determination of which technology is represented by the virtual object may be made by the media file reproducing apparatus.

본 발명의 실시예들에 따른 미디어 파일의 제공 및 처리는 하드웨어, 소프트웨어 또는 하드웨어 및 소프트웨어의 조합의 형태로 실현 가능함은 물론이다. 이러한 미디어 파일 및/또는 상기 소프트웨어는 예를 들어, 삭제 가능 또는 재기록 가능 여부와 상관없이, ROM(Read Only Memory) 등과 같은 휘발성 또는 비휘발성 저장 장치, 또는 예를 들어, RAM(Random Access Memory), 메모리 칩, 장치 또는 집적 회로와 같은 메모리, 또는 예를 들어 CD(Compact Disk), DVD(Digital Versatile Disc), 자기 디스크 또는 자기 테이프 등과 같은 광학 또는 자기적으로 기록 가능함과 동시에 기계(예를 들어, 컴퓨터)로 읽을 수 있는 저장 매체에 저장될 수 있다. The provision and processing of the media file according to embodiments of the present invention may be realized in the form of hardware, software or a combination of hardware and software. Such media files and / or the software may be, for example, volatile or nonvolatile storage devices such as Read Only Memory (ROM) or the like, whether random or rewritable, or random access memory (RAM), for example, Memory such as a memory chip, device or integrated circuit, or a machine (eg, optically or magnetically recordable) such as, for example, a compact disk (CD), a digital versatile disc (DVD), a magnetic disk or a magnetic tape Computer).

또한 본 발명의 미디어 파일 제공 및 처리는 제어부 및 메모리를 포함하는 컴퓨터 또는 휴대 장치에 의해 구현될 수 있고, 상기 메모리는 본 발명의 실시예들을 구현하는 지시들을 포함하는 프로그램 또는 프로그램들을 저장하기에 적합한 기계로 읽을 수 있는 저장 매체의 한 예가 될 수 있다. In addition, the media file providing and processing of the present invention may be implemented by a computer or a portable device including a control unit and a memory, the memory suitable for storing a program or programs containing instructions for implementing embodiments of the present invention. An example is a machine-readable storage medium.

따라서, 본 발명은 본 명세서의 한 청구항에 기재된 장치 또는 방법을 구현하기 위한 코드를 포함하는 프로그램 및 이러한 프로그램을 저장하는 기계(컴퓨터 등)로 읽을 수 있는 저장 매체를 포함한다. 또한, 이러한 프로그램은 유선 또는 무선 연결을 통해 전달되는 통신 신호와 같은 임의의 매체를 통해 전자적으로 이송될 수 있고, 본 발명은 이와 균등한 것을 적절하게 포함한다.Accordingly, the present invention includes a program comprising code for implementing the apparatus or method described in one claim of the present specification and a storage medium readable by a machine (computer, etc.) storing such a program. In addition, such a program may be electronically transported through any medium such as a communication signal transmitted via a wired or wireless connection, and the present invention appropriately includes the same.

또한, 본 발명의 미디어 파일 재생 장치는 유선 또는 무선으로 연결되는 미디어 파일 제공 장치로부터 상기 미디어 파일 및/또는 상기 프로그램을 수신하여 저장할 수 있다. 상기 미디어 파일 제공 장치는 본 발명에 따른 미디어 파일을 저장하기 위한 메모리와, 미디어 파일 재생 장치가 기 설정된 미디어 파일 처리를 수행하도록 하는 지시들을 포함하는 프로그램과 미디어 파일 처리에 필요한 정보 등을 저장하기 위한 메모리와, 상기 미디어 파일 재생 장치와의 유선 또는 무선 통신을 수행하기 위한 통신부와, 상기 미디어 파일 재생 장치의 요청 또는 자동으로 해당 프로그램을 상기 통신부로 전송하는 제어부 중 적어도 하나를 포함할 수 있다.
In addition, the media file reproducing apparatus of the present invention may receive and store the media file and / or the program from a media file providing apparatus connected by wire or wirelessly. The media file providing apparatus includes a memory for storing a media file according to the present invention, a program including instructions for causing the media file reproducing apparatus to perform a predetermined media file processing, information for processing a media file, and the like. At least one of a memory, a communication unit for performing wired or wireless communication with the media file reproducing apparatus, and a control unit for automatically transmitting a request or a corresponding program to the communication unit by the media file reproducing apparatus.

한편 본 발명의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능하다. 그러므로 본 발명의 범위는 설명된 실시 예에 국한되어 정해져서는 아니되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.While the present invention has been described in connection with what is presently considered to be the most practical and preferred embodiment, it is to be understood that the invention is not limited to the disclosed embodiments. Therefore, the scope of the present invention should not be limited by the illustrated embodiments, but should be determined by the scope of the appended claims and equivalents thereof.

Claims (8)

증강현실 서비스를 위한 미디어 파일의 처리 방법에 있어서,
증강현실 서비스의 제공에 이용되기 위한 마커 트랙과 3차원(3D) 객체 트랙을 포함하는 미디어 파일을 분석하는 과정과,
상기 미디어 파일에 포함된 비디오 및/또는 오디오 데이터를 추출하여 영상 재생에 필요한 영상 데이터를 생성하는 과정과,
상기 미디어 파일에 포함된 가상 물체 정보를 추출하여 가상 물체를 표시하기 위한 가상 물체 데이터를 생성하는 과정과,
상기 영상 데이터와 상기 가상 물체 데이터를 합성하여 최종 영상을 구성하고, 상기 최종 영상을 화면에 재생하는 과정을 포함하는 것을 특징으로 하는 방법.
In the method of processing a media file for augmented reality service,
Analyzing a media file including a marker track and a 3D object track for use in providing augmented reality service;
Extracting video and / or audio data included in the media file to generate image data necessary for playing the image;
Generating virtual object data for displaying a virtual object by extracting virtual object information included in the media file;
And synthesizing the image data and the virtual object data to form a final image, and reproducing the final image on a screen.
증강현실 서비스를 위한 미디어 파일의 제공 방법에 있어서,
증강현실 서비스의 제공에 이용되기 위한 마커 트랙과 3차원(3D) 객체 트랙을 포함하는 미디어 파일을 저장하는 과정과,
상기 미디어 파일을 제공하는 과정을 포함하는 것을 특징으로 하는 방법.
In the method of providing a media file for augmented reality service,
Storing a media file including a marker track and a three-dimensional (3D) object track for use in providing augmented reality service;
Providing the media file.
제 1 항 또는 제 2 항에 있어서, 상기 마커 트랙은 화면에서 가상 물체가 표시될 영역의 상대적 좌표 및 가상 물체를 표현하기 위해 필요한 부가적인 정보를 저장하는 마커 테이블(mtbl) 박스를 포함하며,
상기 mtbl 박스는, 상기 가상 물체의 이동시 발생하는 특징을 기준으로 분류되는 시간 축 상의 복수의 마커 구간들을 정의하며,
각 마커 구간에서 사용되는 가상 마커의 비교 대상이 되는 기준 가상 마커의 정보를 저장하는 마커 헤더(mkhd) 박스와 상기 복수의 마커 구간들 중 동일 그룹에 포함되는 마커 구간들의 정보를 저장하는 마커 그룹(mgrp) 박스를 포함함을 특징으로 하는 방법.
3. The marker track according to claim 1 or 2, wherein the marker track includes a marker table (mtbl) box for storing relative coordinates of an area of the screen on which the virtual object is to be displayed and additional information necessary for representing the virtual object.
The mtbl box defines a plurality of marker sections on a time axis classified based on a feature occurring when the virtual object moves.
A marker header (mkhd) box for storing information of a reference virtual marker to be compared with the virtual markers used in each marker section, and a marker group for storing information of marker sections included in the same group among the plurality of marker sections ( mgrp) box.
제 1 항 또는 제 2 항에 있어서, 상기 3D 객체 트랙은, 화면에 표시될 가상 물체를 저장하고, 상기 가상 물체의 이동시 발생하는 특징을 기준으로 분류되는 시간 축 상의 복수의 마커 구간들 각각에서 사용되는 가상 물체를 표현하기 위한 객체 테이블(otbl) 박스를 포함하며,
상기 otbl 박스는, 객체 테이블 헤더(othd) 박스와, 상기 복수의 마커 구간들 중 동일 그룹에 포함되는 마커 구간에서 사용되는 실제 가상 물체에 대한 맵핑 정보를 제공하는 매핑 테이블(mtbl) 박스와, 상기 가상 물체를 표현하기 위한 증강현실 기술의 종류를 표현하는 객체 설명(odes) 박스를 포함함을 특징으로 하는 방법.
The 3D object track according to claim 1 or 2, wherein the 3D object track stores a virtual object to be displayed on a screen and is used in each of a plurality of marker sections on a time axis classified based on a characteristic generated when the virtual object moves. An object table (otbl) box for representing the virtual object being
The otbl box may include: an object table header (othd) box, a mapping table (mtbl) box for providing mapping information on an actual virtual object used in a marker section included in the same group among the plurality of marker sections, and And an object description (odes) box representing the type of augmented reality technology for representing the virtual object.
증강현실 서비스를 위한 미디어 파일의 처리 장치에 있어서,
증강현실 서비스의 제공에 이용되기 위한 마커 트랙과 3차원(3D) 객체 트랙을 포함하는 미디어 파일을 분석하는 미디어 파일 분석부와,
상기 미디어 파일에 포함된 비디오 및/또는 오디오 데이터를 추출하여 영상 재생에 필요한 영상 데이터를 생성하는 영상 재생부와,
상기 미디어 파일에 포함된 가상 물체 정보를 추출하여 가상 물체를 표시하기 위한 가상 물체 데이터를 생성하는 가상물체 재생부와,
상기 영상 데이터와 상기 가상 물체 데이터를 합성하여 최종 영상을 구성하고, 상기 최종 영상을 화면에 재생하는 영상 합성부를 포함하는 것을 특징으로 하는 장치.
In the apparatus for processing a media file for augmented reality service,
A media file analyzer for analyzing a media file including a marker track and a 3D object track for use in providing augmented reality service;
An image reproducing unit for extracting video and / or audio data included in the media file to generate image data necessary for image reproduction;
A virtual object reproducing unit configured to extract virtual object information included in the media file and generate virtual object data for displaying the virtual object;
And an image synthesizer configured to synthesize the image data and the virtual object data to form a final image and to reproduce the final image on a screen.
증강현실 서비스를 위한 미디어 파일의 제공 장치에 있어서,
증강현실 서비스의 제공에 이용되기 위한 마커 트랙과 3차원(3D) 객체 트랙을 포함하는 미디어 파일을 저장하는 저장부와,
상기 미디어 파일을 제공하는 제어부를 포함하는 것을 특징으로 하는 장치.
In the apparatus for providing a media file for augmented reality service,
A storage unit for storing a media file including a marker track and a three-dimensional (3D) object track for use in providing augmented reality service;
And a control unit for providing the media file.
제 5 항 또는 제 6 항에 있어서, 상기 마커 트랙은 화면에서 가상 물체가 표시될 영역의 상대적 좌표 및 가상 물체를 표현하기 위해 필요한 부가적인 정보를 저장하는 마커 테이블(mtbl) 박스를 포함하며,
상기 mtbl 박스는, 상기 가상 물체의 이동시 발생하는 특징을 기준으로 분류되는 시간 축 상의 복수의 마커 구간들을 정의하며,
각 마커 구간에서 사용되는 가상 마커의 비교 대상이 되는 기준 가상 마커의 정보를 저장하는 마커 헤더(mkhd) 박스와 상기 복수의 마커 구간들 중 동일 그룹에 포함되는 마커 구간들의 정보를 저장하는 마커 그룹(mgrp) 박스를 포함함을 특징으로 하는 장치.
7. The marker track according to claim 5 or 6, wherein the marker track includes a marker table (mtbl) box for storing relative coordinates of an area of the screen on which the virtual object is to be displayed and additional information necessary for representing the virtual object.
The mtbl box defines a plurality of marker sections on a time axis classified based on a feature occurring when the virtual object moves.
A marker header (mkhd) box for storing information of a reference virtual marker to be compared with the virtual markers used in each marker section, and a marker group for storing information of marker sections included in the same group among the plurality of marker sections ( mgrp) box.
제 5 항 또는 제 6 항에 있어서, 상기 3D 객체 트랙은, 화면에 표시될 가상 물체를 저장하고, 상기 가상 물체의 이동시 발생하는 특징을 기준으로 분류되는 시간 축 상의 복수의 마커 구간들 각각에서 사용되는 가상 물체를 표현하기 위한 객체 테이블(otbl) 박스를 포함하며,
상기 otbl 박스는, 객체 테이블 헤더(othd) 박스와, 상기 복수의 마커 구간들 중 동일 그룹에 포함되는 마커 구간에서 사용되는 실제 가상 물체에 대한 맵핑 정보를 제공하는 매핑 테이블(mtbl) 박스와, 상기 가상 물체를 표현하기 위한 증강현실 기술의 종류를 표현하는 객체 설명(odes) 박스를 포함함을 특징으로 하는 장치.
The method according to claim 5 or 6, wherein the 3D object track is used in each of a plurality of marker sections on a time axis that store virtual objects to be displayed on the screen and are classified based on characteristics generated when the virtual objects move. An object table (otbl) box for representing the virtual object being
The otbl box may include: an object table header (othd) box, a mapping table (mtbl) box for providing mapping information on an actual virtual object used in a marker section included in the same group among the plurality of marker sections, and And an object description (odes) box representing a type of augmented reality technology for representing a virtual object.
KR1020120030099A 2012-03-23 2012-03-23 Method and apparatus of processing media file for augmented reality services KR101887548B1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020120030099A KR101887548B1 (en) 2012-03-23 2012-03-23 Method and apparatus of processing media file for augmented reality services
US13/838,258 US9224246B2 (en) 2012-03-23 2013-03-15 Method and apparatus for processing media file for augmented reality service
PCT/KR2013/002228 WO2013141562A1 (en) 2012-03-23 2013-03-19 Method and apparatus for processing media file for augmented reality service
EP13763778.1A EP2829055B1 (en) 2012-03-23 2013-03-19 Method and apparatus for processing media file for augmented reality service

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120030099A KR101887548B1 (en) 2012-03-23 2012-03-23 Method and apparatus of processing media file for augmented reality services

Publications (2)

Publication Number Publication Date
KR20130107917A true KR20130107917A (en) 2013-10-02
KR101887548B1 KR101887548B1 (en) 2018-08-10

Family

ID=49211346

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120030099A KR101887548B1 (en) 2012-03-23 2012-03-23 Method and apparatus of processing media file for augmented reality services

Country Status (4)

Country Link
US (1) US9224246B2 (en)
EP (1) EP2829055B1 (en)
KR (1) KR101887548B1 (en)
WO (1) WO2013141562A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017222225A1 (en) * 2016-06-20 2017-12-28 (주)핑거플러스 Method for preprocessing image content capable of tracking position of object and mappable product included in image content, server for executing same, and coordinates inputter device
KR20180112793A (en) * 2016-02-17 2018-10-12 퀄컴 인코포레이티드 Storage of virtual reality video in media files
KR20190034051A (en) * 2017-09-22 2019-04-01 삼성전자주식회사 Method and device for providing ar(augmented reality) service
US11127218B2 (en) 2019-11-20 2021-09-21 Alchera Inc. Method and apparatus for creating augmented reality content

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8988574B2 (en) 2012-12-27 2015-03-24 Panasonic Intellectual Property Corporation Of America Information communication method for obtaining information using bright line image
CN104871452B (en) 2012-12-27 2018-04-27 松下电器(美国)知识产权公司 Visual optical communication method and visual optical communication apparatus
JP5606655B1 (en) 2012-12-27 2014-10-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Information communication method
US10303945B2 (en) * 2012-12-27 2019-05-28 Panasonic Intellectual Property Corporation Of America Display method and display apparatus
US9608725B2 (en) 2012-12-27 2017-03-28 Panasonic Intellectual Property Corporation Of America Information processing program, reception program, and information processing apparatus
US8922666B2 (en) 2012-12-27 2014-12-30 Panasonic Intellectual Property Corporation Of America Information communication method
US10530486B2 (en) 2012-12-27 2020-01-07 Panasonic Intellectual Property Corporation Of America Transmitting method, transmitting apparatus, and program
US10951310B2 (en) 2012-12-27 2021-03-16 Panasonic Intellectual Property Corporation Of America Communication method, communication device, and transmitter
EP2940893B1 (en) 2012-12-27 2021-05-19 Panasonic Intellectual Property Corporation of America Information communication method
US9087349B2 (en) 2012-12-27 2015-07-21 Panasonic Intellectual Property Corporation Of America Information communication method
US10523876B2 (en) 2012-12-27 2019-12-31 Panasonic Intellectual Property Corporation Of America Information communication method
US20140270477A1 (en) * 2013-03-14 2014-09-18 Jonathan Coon Systems and methods for displaying a three-dimensional model from a photogrammetric scan
GB2539462B (en) * 2015-06-16 2019-04-03 Canon Kk Obtaining media data and metadata from encapsulated bit-streams wherein operating point descriptors can be dynamically set
US20170155967A1 (en) * 2015-11-30 2017-06-01 Nokia Technologies Oy Method and apparatus for facilitaing live virtual reality streaming
US10367919B2 (en) * 2016-03-31 2019-07-30 Verizon Patent And Licensing Inc. Methods and systems for efficient distribution of virtual reality media content
US10204274B2 (en) * 2016-06-29 2019-02-12 Cellular South, Inc. Video to data
US9940975B2 (en) * 2016-09-13 2018-04-10 Shutterfly, Inc. System and method for automatically displaying variable image content in an image product
DE102016119637A1 (en) 2016-10-14 2018-04-19 Uniqfeed Ag Television transmission system for generating enriched images
DE102016119640A1 (en) * 2016-10-14 2018-04-19 Uniqfeed Ag System for generating enriched images
DE102016119639A1 (en) 2016-10-14 2018-04-19 Uniqfeed Ag System for dynamic contrast maximization between foreground and background in images or / and image sequences
JP7007396B2 (en) * 2017-03-17 2022-01-24 マジック リープ, インコーポレイテッド Techniques for recording augmented reality data
US11532128B2 (en) * 2017-03-23 2022-12-20 Qualcomm Incorporated Advanced signaling of regions of interest in omnidirectional visual media
US10789473B2 (en) 2017-09-22 2020-09-29 Samsung Electronics Co., Ltd. Method and device for providing augmented reality service
EP3846481A4 (en) * 2018-09-27 2021-11-10 Huawei Technologies Co., Ltd. Method for processing media data, and client, and server
CN109640171A (en) * 2018-12-07 2019-04-16 北京微播视界科技有限公司 Multimedia messages synthetic method, electronic equipment and computer readable storage medium
US11107291B2 (en) * 2019-07-11 2021-08-31 Google Llc Traversing photo-augmented information through depth using gesture and UI controlled occlusion planes
US11222478B1 (en) 2020-04-10 2022-01-11 Design Interactive, Inc. System and method for automated transformation of multimedia content into a unitary augmented reality module
CN112672185B (en) * 2020-12-18 2023-07-07 脸萌有限公司 Augmented reality-based display method, device, equipment and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100045869A1 (en) * 2008-08-19 2010-02-25 Sony Computer Entertainment Europe Ltd. Entertainment Device, System, and Method
KR101056418B1 (en) * 2011-03-31 2011-08-11 주식회사 맥스트 Apparatus and method for tracking augmented reality contents using mobile sensors
KR20110104686A (en) * 2010-03-17 2011-09-23 에스케이텔레콤 주식회사 Marker size based interaction method and augmented reality system for realizing the same
KR20120004320A (en) * 2010-07-06 2012-01-12 김덕중 Method, additional service server and broadcasting system for providing augmented reality associated tv screen in mobile environment

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050289590A1 (en) * 2004-05-28 2005-12-29 Cheok Adrian D Marketing platform
WO2009149442A1 (en) 2008-06-06 2009-12-10 Divx, Inc. Systems and methods for font file optimization for multimedia files
US9064424B2 (en) * 2009-02-20 2015-06-23 Jackson Fish Market, LLC Audiovisual record of a user reading a book aloud for playback with a virtual book
KR20120006312A (en) 2010-07-12 2012-01-18 피크네코크리에이티브 주식회사 Location based augmented reality contents data sharing system and method using mobile device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100045869A1 (en) * 2008-08-19 2010-02-25 Sony Computer Entertainment Europe Ltd. Entertainment Device, System, and Method
KR20110104686A (en) * 2010-03-17 2011-09-23 에스케이텔레콤 주식회사 Marker size based interaction method and augmented reality system for realizing the same
KR20120004320A (en) * 2010-07-06 2012-01-12 김덕중 Method, additional service server and broadcasting system for providing augmented reality associated tv screen in mobile environment
KR101056418B1 (en) * 2011-03-31 2011-08-11 주식회사 맥스트 Apparatus and method for tracking augmented reality contents using mobile sensors

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180112793A (en) * 2016-02-17 2018-10-12 퀄컴 인코포레이티드 Storage of virtual reality video in media files
WO2017222225A1 (en) * 2016-06-20 2017-12-28 (주)핑거플러스 Method for preprocessing image content capable of tracking position of object and mappable product included in image content, server for executing same, and coordinates inputter device
KR20190034051A (en) * 2017-09-22 2019-04-01 삼성전자주식회사 Method and device for providing ar(augmented reality) service
US11127218B2 (en) 2019-11-20 2021-09-21 Alchera Inc. Method and apparatus for creating augmented reality content

Also Published As

Publication number Publication date
US20130249900A1 (en) 2013-09-26
US9224246B2 (en) 2015-12-29
EP2829055B1 (en) 2017-11-29
KR101887548B1 (en) 2018-08-10
EP2829055A4 (en) 2015-10-28
EP2829055A1 (en) 2015-01-28
WO2013141562A1 (en) 2013-09-26

Similar Documents

Publication Publication Date Title
KR101887548B1 (en) Method and apparatus of processing media file for augmented reality services
CN110286773B (en) Information providing method, device, equipment and storage medium based on augmented reality
CN107810531B (en) Data processing system
US20200066305A1 (en) Creating a Digital Media File with Highlights of Multiple Media Files Relating to a Same Period of Time
CN106231205B (en) Augmented reality mobile terminal
US9542975B2 (en) Centralized database for 3-D and other information in videos
JP2019160318A (en) Information processing device, information processing method, and program
US20130282715A1 (en) Method and apparatus of providing media file for augmented reality service
US20150078723A1 (en) Method and apparatus for smart video rendering
CN105828103A (en) Video processing method and player
US11211097B2 (en) Generating method and playing method of multimedia file, multimedia file generation apparatus and multimedia file playback apparatus
EP3735778B1 (en) Coordinates as ancillary data
CN109359203B (en) Method and device for processing motion trail video
CN113542907B (en) Multimedia data transceiving method, system, processor and player
KR101018781B1 (en) Method and system for providing additional contents using augmented reality
KR101399633B1 (en) Method and apparatus of composing videos
KR102443049B1 (en) Electric apparatus and operation method thereof
WO2019030551A1 (en) Method for applying metadata to immersive media files
US11601632B2 (en) Device and method of creating an augmented interactive virtual reality system
KR20140092564A (en) Method and apparatus for providing augmented reality service
Jailly et al. Interactive multimedia for engineering tele-operation
KR20230007087A (en) AR tourism image-based tourism service provision method, system, and device therefor
JPH1145351A (en) Information processor
CN110929056A (en) Multimedia file generating method, multimedia file playing method, multimedia file generating device and multimedia file playing device
Uribe et al. New usability evaluation model for a personalized adaptive media search engine based on interface complexity metrics

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant