KR20220020103A - Server, method and computer program for prividing real-life type media contents - Google Patents

Server, method and computer program for prividing real-life type media contents Download PDF

Info

Publication number
KR20220020103A
KR20220020103A KR1020200100650A KR20200100650A KR20220020103A KR 20220020103 A KR20220020103 A KR 20220020103A KR 1020200100650 A KR1020200100650 A KR 1020200100650A KR 20200100650 A KR20200100650 A KR 20200100650A KR 20220020103 A KR20220020103 A KR 20220020103A
Authority
KR
South Korea
Prior art keywords
media content
coordinate information
dimensional coordinate
immersive media
image
Prior art date
Application number
KR1020200100650A
Other languages
Korean (ko)
Inventor
정종원
최강현
김이길
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020200100650A priority Critical patent/KR20220020103A/en
Publication of KR20220020103A publication Critical patent/KR20220020103A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Abstract

Provided is a realistic media content providing server, which includes: a learning data generation unit for generating learning data based on two-dimensional coordinate information for an object in an image for learning and an image for learning for the object to which a tracker is attached; a learning unit for training a tracking model based on the generated learning data; an output unit for outputting realistic media content and projecting the content onto an object through a projector which interworks with the realistic media content providing server; a tracking unit for tracking the two-dimensional coordinate information for the moving object through the learned tracking model, when the object moves; and an adjustment unit adjusting the realistic media content based on the two-dimensional coordinate information for the tracked object. The output unit may output the realistic media content adjusted through the projector and project the content onto the object.

Description

실감형 미디어 컨텐츠를 제공하는 서버, 방법 및 컴퓨터 프로그램{SERVER, METHOD AND COMPUTER PROGRAM FOR PRIVIDING REAL-LIFE TYPE MEDIA CONTENTS}SERVER, METHOD AND COMPUTER PROGRAM FOR PRIVIDING REAL-LIFE TYPE MEDIA CONTENTS}

본 발명은 실감형 미디어 컨텐츠를 제공하는 장치, 방법 및 컴퓨터 프로그램에 관한 것이다. The present invention relates to an apparatus, method and computer program for providing immersive media content.

차세대 이동통신인 5G가 사용화되면서 AR/VR 등의 다양한 실감 미디어 서비스가 주목받고 있다. 기존의 AR/VR 서비스의 경우에는 사용자가 AR/VR 컨텐츠의 시청을 위해서 스마트 글라스 또는 HMD 장치를 착용해야 하는 불편함이 있었다. As 5G, the next-generation mobile communication, is used, various immersive media services such as AR/VR are attracting attention. In the case of the existing AR/VR service, it is inconvenient for the user to wear smart glasses or HMD device to view AR/VR contents.

이러한 AR/VR 서비스의 한계를 극복하기 위해 프로젝터 기반의 XR(Extended Reality)/ MR(Mixed Reality) 형식의 실감 미디어 서비스가 등장했다. To overcome the limitations of these AR/VR services, projector-based XR (Extended Reality)/MR (Mixed Reality) types of immersive media services have emerged.

최근에는 프로젝터 기반의 XR/MR 실감 미디어 서비스 방식에 트래커, 뎁스 카메라 등을 활용하여 프로젝션이 되는 물체를 트래킹하여 몰입도를 높이는 컨텐츠 제공 방법이 개발되고 있다. Recently, a method for providing content that increases immersion by tracking a projected object by using a tracker, a depth camera, etc. in a projector-based XR/MR immersive media service method is being developed.

하지만 이러한 컨텐츠 제공 방법들은 물체의 자세를 정밀하게 트래킹할 수 있는 외부 장비(다수의 트래커 장비)가 필요하며, 이에 따라 외부 장비의 구매에 대한 구매 비용이 많이 든다. 또한, 프로젝터 기반의 XR/MR 실감 미디어 서비스를 제공하기 위해서는 공간 내에 설치된 센서 간 캘리브레이션을 수행하는 등의 추가 작업이 필요하다. 이러한 제한 사항은 실감 미디어 서비스를 구성하는 컨텐츠의 제작 비용을 증가시킬 뿐만 아니라, 프로젝터 기반의 XR/MR 실감 미디어 서비스에 대한 확산을 저지하게 된다. However, these content providing methods require an external device (a plurality of tracker devices) capable of precisely tracking the posture of an object, and accordingly, the purchase cost of the external device is high. In addition, in order to provide a projector-based XR/MR immersive media service, additional work such as performing calibration between sensors installed in a space is required. These restrictions not only increase the production cost of content constituting the sensory media service, but also block the spread of the projector-based XR/MR sensory media service.

한편, 뎁스 카메라를 이용한 물체 자세 추정 방식이 개발되고 있으나, 뎁스 카메라는 일반 카메라보다 해상도가 부족하고, 많은 노이즈(잡음)이 포함되어 물체 트래킹의 정밀도를 낮춰 프로젝션 되는 컨텐츠의 실감성을 저하시키는 문제점이 있다. On the other hand, although an object posture estimation method using a depth camera is being developed, the depth camera has a lower resolution than a general camera and contains a lot of noise (noise), which lowers the precision of object tracking and lowers the realism of the projected content. There is this.

한편, 최근에는 영상처리에 널리 사용되는 CNN 네트워크를 RGB 카메라에 적용함으로써 RGB 카메라를 통해서도 기존에 뎁스 카메라를 통해서만 획득할 수 있었던 물체(컨텐츠 영상이 프로젝션된 물체)의 모서리 정보를 획득할 수 있다. 하지만, 이를 위해서는 일반적으로 영상을 촬영하고, 해당 영상에 포함된 물체의 모서리에 대한 라벨링 작업이 필요하다. Meanwhile, by applying the CNN network, which is widely used for image processing, to RGB cameras in recent years, it is possible to acquire edge information of objects (objects on which the content image is projected), which could only be obtained through conventional depth cameras, through RGB cameras. However, for this purpose, it is generally necessary to take an image and label the edges of the object included in the image.

일반적으로 물체의 모서리에 대한 라벨링 데이터는 많은 인력의 수작업을 통해 획득된다. 이러한 수작업은 라벨링 작업자의 숙련도에 따라 훈련 데이터의 품질에도 문제가 발생할 수 있다.In general, labeling data for the edge of an object is obtained through the manual labor of many people. Such manual work may also cause problems in the quality of training data depending on the skill level of the labeler.

라벨링 작업은 광학식 카메라 및 마커 시스템을 통해 수행하기도 하나, 이러한 방법으로 획득한 영상에는 마커 이미지가 촬영되어 있기 때문에 해당 영상에서 마커 이미지를 제거해야 하는 작업이 추가적으로 필요하다. 또한, 프로젝션 상황에서 훈련 데이터를 획득하는 경우, 프로젝션 빛으로 인해 광학식 트래커의 품질이 저하되는 문제가 있다. Although the labeling operation is sometimes performed through an optical camera and a marker system, since the marker image is captured in the image obtained by this method, the operation of removing the marker image from the corresponding image is additionally required. In addition, when acquiring training data in a projection situation, there is a problem in that the quality of the optical tracker is deteriorated due to the projected light.

일본공개특허공보 제2003-500766호 (2003.01.07. 공개)Japanese Laid-Open Patent Publication No. 2003-500766 (published on July 7, 2003)

본 발명은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 트래커가 부착된 객체에 대한 학습용 영상 및 학습용 영상 내 객체에 대한 2차원 좌표 정보 기반으로 생성된 학습 데이터에 기초하여 추적 모델을 학습시키고, 학습된 추적 모델을 통해 추적된 움직이는 객체에 대한 2차원 좌표 정보에 기초하여 객체로 투영되는 실감형 미디어 컨텐츠를 조정하고자 한다. The present invention is to solve the problems of the prior art described above, the tracking model is trained based on the training data generated based on the two-dimensional coordinate information about the object in the training image and the training image for the object to which the tracker is attached, Based on the two-dimensional coordinate information of the moving object tracked through the learned tracking model, it is intended to adjust the realistic media content projected to the object.

다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다. However, the technical problems to be achieved by the present embodiment are not limited to the technical problems described above, and other technical problems may exist.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 제 1 측면에 따른 실감형 미디어 컨텐츠 제공 서버는 트래커가 부착된 객체에 대한 학습용 영상 및 상기 학습용 영상 내 상기 객체에 대한 2차원 좌표 정보에 기초하여 학습 데이터를 생성하는 학습 데이터 생성부; 상기 생성된 학습 데이터에 기초하여 추적 모델을 학습시키는 학습부; 상기 실감형 미디어 컨텐츠 제공 서버와 연동하는 프로젝터를 통해 실감형 미디어 컨텐츠를 출력하여 객체 상에 투영시키는 출력부; 상기 객체가 움직이는 경우, 상기 학습된 추적 모델을 통해 상기 움직이는 객체에 대한 2차원 좌표 정보를 추적하는 추적부; 및 상기 추적된 객체에 대한 2차원 좌표 정보에 기초하여 상기 실감형 미디어 컨텐츠를 조정하는 조정부를 포함하고, 상기 출력부는 상기 프로젝터를 통해 상기 조정된 실감형 미디어 컨텐츠를 출력하여 상기 객체 상에 투영시킬 수 있다. As a technical means for achieving the above-described technical problem, the immersive media content providing server according to the first aspect of the present invention provides a training image for an object to which a tracker is attached and two-dimensional coordinate information for the object in the training image. a learning data generation unit generating learning data based on the learning data; a learning unit for learning a tracking model based on the generated training data; an output unit for outputting immersive media content and projecting it onto an object through a projector that interworks with the immersive media content providing server; a tracking unit for tracking two-dimensional coordinate information on the moving object through the learned tracking model when the object moves; and an adjustment unit configured to adjust the immersive media content based on the two-dimensional coordinate information on the tracked object, wherein the output unit outputs the adjusted immersive media content through the projector and projects it onto the object. can

본 발명의 제 2 측면에 따른 실감형 미디어 컨텐츠 제공 서버에 의해 수행되는 실감형 미디어 컨텐츠를 제공하는 방법은 트래커가 부착된 객체에 대한 학습용 영상 및 상기 학습용 영상 내 상기 객체에 대한 2차원 좌표 정보에 기초하여 학습 데이터를 생성하는 단계; 상기 생성된 학습 데이터에 기초하여 추적 모델을 학습시키는 단계; 상기 실감형 미디어 컨텐츠 제공 서버와 연동하는 프로젝터를 통해 실감형 미디어 컨텐츠를 출력하여 객체 상에 투영시키는 단계; 상기 객체가 움직이는 경우, 상기 학습된 추적 모델을 통해 상기 움직이는 객체에 대한 2차원 좌표 정보를 추적하는 단계; 상기 추적된 객체에 대한 2차원 좌표 정보에 기초하여 상기 실감형 미디어 컨텐츠를 조정하는 단계 및 상기 프로젝터를 통해 상기 조정된 실감형 미디어 컨텐츠를 출력하여 상기 객체 상에 투영시키는 단계를 포함할 수 있다. The method for providing immersive media content performed by the immersive media content providing server according to the second aspect of the present invention includes a training image for an object to which a tracker is attached and two-dimensional coordinate information for the object in the training image. generating learning data based on the; training a tracking model based on the generated training data; outputting the immersive media content through a projector interworking with the immersive media content providing server and projecting the immersive media content onto an object; tracking two-dimensional coordinate information on the moving object through the learned tracking model when the object moves; The method may include adjusting the immersive media content based on the two-dimensional coordinate information on the tracked object, and outputting the adjusted immersive media content through the projector and projecting it on the object.

본 발명의 제 3 측면에 따른 실감형 미디어 컨텐츠 제공 서버에 의해 수행되는 실감형 미디어 컨텐츠를 제공하는 명령어들의 시퀀스를 포함하는 컴퓨터 판독가능 기록매체에 저장된 컴퓨터 프로그램은 컴퓨팅 장치에 의해 실행될 경우, 트래커가 부착된 객체에 대한 학습용 영상 및 상기 학습용 영상 내 상기 객체에 대한 2차원 좌표 정보에 기초하여 학습 데이터를 생성하고, 상기 생성된 학습 데이터에 기초하여 추적 모델을 학습시키고, 상기 실감형 미디어 컨텐츠 제공 서버와 연동하는 프로젝터를 통해 실감형 미디어 컨텐츠를 출력하여 객체 상에 투영시키고, 상기 객체가 움직이는 경우, 상기 학습된 추적 모델을 통해 상기 움직이는 객체에 대한 2차원 좌표 정보를 추적하고, 상기 추적된 객체에 대한 2차원 좌표 정보에 기초하여 상기 실감형 미디어 컨텐츠를 조정하고, 상기 프로젝터를 통해 상기 조정된 실감형 미디어 컨텐츠를 출력하여 상기 객체 상에 투영시키는 명령어들의 시퀀스를 포함할 수 있다. A computer program stored in a computer-readable recording medium including a sequence of instructions for providing immersive media content, which is performed by the immersive media content providing server according to the third aspect of the present invention, when executed by a computing device, causes the tracker to Generates training data based on a training image for an attached object and 2D coordinate information on the object in the training image, trains a tracking model based on the generated learning data, and provides the immersive media content server Outputs immersive media content through a projector in conjunction with and projects it on an object, and when the object moves, 2D coordinate information on the moving object is tracked through the learned tracking model, and the and a sequence of commands for adjusting the immersive media content based on the two-dimensional coordinate information for the object, and outputting the adjusted immersive media content through the projector and projecting it on the object.

상술한 과제 해결 수단은 단지 예시적인 것으로서, 본 발명을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 기재된 추가적인 실시예가 존재할 수 있다.The above-described problem solving means are merely exemplary, and should not be construed as limiting the present invention. In addition to the exemplary embodiments described above, there may be additional embodiments described in the drawings and detailed description.

전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 본 발명은 트래커가 부착된 객체에 대한 학습용 영상 및 학습용 영상 내 객체 대한 2차원 좌표 정보 기반으로 생성된 학습 데이터에 기초하여 추적 모델을 학습시키고, 학습된 추적 모델을 통해 추적된 움직이는 객체에 대한 2차원 좌표 정보에 기초하여 객체로 투영되는 실감형 미디어 컨텐츠를 조정할 수 있다. According to any one of the above-described problem solving means of the present invention, the present invention learns a tracking model based on the training data generated based on the two-dimensional coordinate information for the object in the training image and the training image for the object to which the tracker is attached, and , it is possible to adjust the immersive media content projected to the object based on the two-dimensional coordinate information for the moving object tracked through the learned tracking model.

이를 통해, 본 발명은 일반 카메라에 의해 촬영된 영상을 이용하여 객체의 트래킹을 위한 학습 데이터를 구성할 수 있기 때문에 기존의 객체의 모서리의 꼭짓점에 대한 라벨링 수작업 또는 광학식 카메라 및 마커 시스템을 통한 라벨링 작업에 드는 제작 비용을 줄일 수 있다. Through this, the present invention can configure learning data for tracking an object using an image taken by a general camera, so labeling manual or optical camera and marker system for the vertices of an existing object labeling operation production cost can be reduced.

또한, 본 발명은 일반 카메라를 활용함으로써 실감형 미디어 서비스 시스템의 구성 비용을 낮출 수 있고, 이를 통해 실감형 미디어 서비스의 시장 확대 효과를 기대할 수 있다. In addition, the present invention can lower the cost of configuring an immersive media service system by using a general camera, and thus can expect an effect of expanding the market for immersive media services.

도 1은 본 발명의 일 실시예에 따른, 실감형 미디어 컨텐츠 제공 시스템의 구성도이다.
도 2는 본 발명의 일 실시예에 따른, 도 1에 도시된 실감형 미디어 컨텐츠 제공 서버의 블록도이다.
도 3a 내지 3f는 본 발명의 일 실시예에 따른, 학습 데이터를 생성하는 방법을 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른, 추적 모델을 학습시키는 방법을 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른, 추적 모델을 통해 객체의 움직임에 따른 객체에 대한 2차원 좌표 정보를 도출하는 방법을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따른, 실감형 미디어 컨텐츠를 제공하는 방법을 나타낸 흐름도이다.
1 is a block diagram of a system for providing immersive media content according to an embodiment of the present invention.
2 is a block diagram of the immersive media content providing server shown in FIG. 1 according to an embodiment of the present invention.
3A to 3F are diagrams for explaining a method of generating learning data according to an embodiment of the present invention.
4 is a diagram for explaining a method of training a tracking model according to an embodiment of the present invention.
5 is a view for explaining a method of deriving two-dimensional coordinate information for an object according to the movement of the object through a tracking model, according to an embodiment of the present invention.
6 is a flowchart illustrating a method of providing immersive media content according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art can easily implement them. However, the present invention may be embodied in several different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. Throughout the specification, when a part is "connected" with another part, this includes not only the case of being "directly connected" but also the case of being "electrically connected" with another element interposed therebetween. . Also, when a part "includes" a certain component, it means that other components may be further included, rather than excluding other components, unless otherwise stated.

본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다. In this specification, a "part" includes a unit realized by hardware, a unit realized by software, and a unit realized using both. In addition, one unit may be implemented using two or more hardware, and two or more units may be implemented by one hardware.

본 명세서에 있어서 단말 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말 또는 디바이스에서 수행될 수도 있다. Some of the operations or functions described as being performed by the terminal or device in this specification may be instead performed by a server connected to the terminal or device. Similarly, some of the operations or functions described as being performed by the server may also be performed in a terminal or device connected to the server.

이하, 첨부된 구성도 또는 처리 흐름도를 참고하여, 본 발명의 실시를 위한 구체적인 내용을 설명하도록 한다. Hereinafter, detailed contents for carrying out the present invention will be described with reference to the accompanying configuration diagram or process flow diagram.

도 1은 본 발명의 일 실시예에 따른, 실감형 미디어 컨텐츠 제공 시스템의 구성도이다. 1 is a block diagram of a system for providing immersive media content according to an embodiment of the present invention.

도 1을 참조하면, 실감형 미디어 컨텐츠 제공 시스템은 실감형 미디어 컨텐츠 제공 서버(100), 프로젝터(110) 및 카메라(120)를 포함할 수 있다. 다만, 이러한 도 1의 실감형 미디어 컨텐츠 제공 시스템은 본 발명의 일 실시예에 불과하므로 도 1을 통해 본 발명이 한정 해석되는 것은 아니며, 본 발명의 다양한 실시예들에 따라 도 1과 다르게 구성될 수도 있다. Referring to FIG. 1 , the immersive media content providing system may include a immersive media content providing server 100 , a projector 110 , and a camera 120 . However, since the immersive media content providing system of FIG. 1 is only an embodiment of the present invention, the present invention is not limitedly interpreted through FIG. 1, and may be configured differently from FIG. 1 according to various embodiments of the present invention. may be

일반적으로, 도 1의 실감형 미디어 컨텐츠 제공 시스템의 각 구성요소들은 네트워크(미도시)를 통해 연결된다. 네트워크는 단말들 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 근거리 통신망(LAN: Local Area Network), 광역 통신망(WAN: Wide Area Network), 인터넷 (WWW: World Wide Web), 유무선 데이터 통신망, 전화망, 유무선 텔레비전 통신망 등을 포함한다. 무선 데이터 통신망의 일례에는 3G, 4G, 5G, 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution), WIMAX(World Interoperability for Microwave Access), 와이파이(Wi-Fi), 블루투스 통신, 적외선 통신, 초음파 통신, 가시광 통신(VLC: Visible Light Communication), 라이파이(LiFi) 등이 포함되나 이에 한정되지는 않는다. In general, each component of the immersive media content providing system of FIG. 1 is connected through a network (not shown). A network refers to a connection structure in which information can be exchanged between each node, such as terminals and servers, and includes a local area network (LAN), a wide area network (WAN), and the Internet (WWW: World). Wide Web), wired and wireless data communication networks, telephone networks, wired and wireless television networks, and the like. Examples of wireless data communication networks include 3G, 4G, 5G, 3rd Generation Partnership Project (3GPP), Long Term Evolution (LTE), World Interoperability for Microwave Access (WIMAX), Wi-Fi, Bluetooth communication, infrared communication, ultrasound Communication, Visible Light Communication (VLC), LiFi, and the like are included, but are not limited thereto.

실감형 미디어 컨텐츠 제공 서버(100)는 트래커가 부착된 객체(130)를 촬영한 카메라(120)로부터 수신된 객체(130)에 대한 학습용 영상 및 학습용 영상으로부터 도출된 객체(130)에 대한 2차원 좌표에 기초하여 학습 데이터를 생성할 수 있다. The immersive media content providing server 100 is a two-dimensional image of the object 130 derived from the learning image and the learning image for the object 130 received from the camera 120 that has photographed the object 130 to which the tracker is attached. Training data may be generated based on the coordinates.

트래커를 객체(130)에 부착하는 이유는 객체(130)에 부착된 트래커의 위치에 해당하는 좌표 정보를 이용하여 객체(130)의 각 모서리의 꼭짓점에 대한 3차원 좌표 정보를 도출하고, 도출된 객체(130)의 각 모서리의 꼭짓점에 대한 3차원 좌표 정보와, 카메라(120)에 대한 카메라 내부 파라미터 정보 및 카메라 외부 파라미터 정보를 이용하여 학습용 영상으로부터 객체(130)에 대한 2차원 좌표를 도출하기 위함이다. The reason for attaching the tracker to the object 130 is to derive three-dimensional coordinate information for the vertices of each corner of the object 130 using coordinate information corresponding to the position of the tracker attached to the object 130, and the derived Deriving two-dimensional coordinates for the object 130 from the learning image using the three-dimensional coordinate information for the vertices of each corner of the object 130, the camera internal parameter information for the camera 120, and the camera external parameter information it is for

학습 데이터의 생성이 완료된 이후에는 객체(130)에 부착되어 있던 트래커는 제거된다. After the generation of the learning data is completed, the tracker attached to the object 130 is removed.

실감형 미디어 컨텐츠 제공 서버(100)는 생성된 학습 데이터에 기초하여 객체(130)의 모서리의 꼭짓점에 대한 정보를 추적하는 추적 모델을 학습시킬 수 있다. 여기서, 추적 모델은 형태가 서로 다른 객체마다 다르게 생성될 수 있다. The immersive media content providing server 100 may train a tracking model for tracking information on the vertices of the corners of the object 130 based on the generated training data. Here, the tracking model may be generated differently for each object having a different shape.

예를 들어, 제 1 객체와 제 2 객체의 형태가 서로 다른 경우, 실감형 미디어 컨텐츠 제공 서버(100)는 제 1 학습 데이터에 포함된 제 1 학습용 영상 및 제 1 학습용 영상 내 제 1 객체의 각 모서리의 꼭짓점에 대한 2차원 정보에 기초하여 추적 모델을 학습시켜 제 1 객체에 대한 좌표 추적에 이용할 수 있고, 제 2 학습 데이터에 포함된 제 2 학습용 영상 및 제 2 학습용 영상 내 제 2 객체의 각 모서리의 꼭짓점에 대한 2차원 정보에 기초하여 추적 모델을 학습시켜 제 2 객체에 대한 좌표 추적에 이용할 수 있다. For example, when the shapes of the first object and the second object are different from each other, the immersive media content providing server 100 sets each of the first learning image included in the first learning data and the first object in the first learning image. Each of the second object in the second learning image and the second learning image included in the second learning data and can be used to track the coordinates of the first object by learning the tracking model based on the two-dimensional information about the vertices of the corners A tracking model may be trained based on the two-dimensional information about the vertices of the corners and used for coordinate tracking of the second object.

실감형 미디어 컨텐츠 제공 서버(100)는 실감형 미디어 컨텐츠 제공 서버(100)와 연동하는 프로젝터(110)를 통해 실감형 미디어 컨텐츠(140)를 출력하여 객체(130) 상에 투영시킬 수 있다. The immersive media content providing server 100 may output the immersive media content 140 through the projector 110 interworking with the immersive media content providing server 100 and project it onto the object 130 .

실감형 미디어 컨텐츠 제공 서버(100)는 객체(130)가 움직이는 경우, 학습된 추적 모델을 통해 움직이는 객체(130)에 대한 2차원 좌표 정보를 추적할 수 있다. When the object 130 moves, the immersive media content providing server 100 may track the two-dimensional coordinate information of the moving object 130 through the learned tracking model.

실감형 미디어 컨텐츠 제공 서버(100)는 추적된 객체(130)에 대한 2차원 좌표 정보에 기초하여 실감형 미디어 컨텐츠(140)를 조정하고, 조정된 실감형 미디어 컨텐츠를 프로젝터(110)를 통해 출력하여 객체(130) 상에 투영시킬 수 있다. The immersive media content providing server 100 adjusts the immersive media content 140 based on the two-dimensional coordinate information on the tracked object 130 , and outputs the adjusted immersive media content through the projector 110 . Thus, it can be projected on the object 130 .

이하에서는 도 1의 실감형 미디어 컨텐츠 제공 시스템의 각 구성요소의 동작에 대해 보다 구체적으로 설명한다. Hereinafter, the operation of each component of the immersive media content providing system of FIG. 1 will be described in more detail.

도 2는 본 발명의 일 실시예에 따른, 도 1에 도시된 실감형 미디어 컨텐츠 제공 서버(100)의 블록도이다. 2 is a block diagram of the immersive media content providing server 100 shown in FIG. 1 according to an embodiment of the present invention.

도 2를 참조하면, 실감형 미디어 컨텐츠 제공 서버(100)는 도출부(200), 학습 데이터 생성부(210), 학습부(220), 출력부(230), 추적부(240) 및 조정부(250)를 포함할 수 있다. 다만, 도 2에 도시된 실감형 미디어 컨텐츠 제공 서버(100)는 본 발명의 하나의 구현 예에 불과하며, 도 2에 도시된 구성요소들을 기초로 하여 여러 가지 변형이 가능하다. Referring to FIG. 2 , the immersive media content providing server 100 includes a derivation unit 200 , a learning data generation unit 210 , a learning unit 220 , an output unit 230 , a tracking unit 240 , and an adjustment unit ( 250) may be included. However, the immersive media content providing server 100 shown in FIG. 2 is only one implementation example of the present invention, and various modifications are possible based on the components shown in FIG. 2 .

이하에서는 도 3a 내지 도 5를 함께 참조하여 도 2를 설명하기로 한다. Hereinafter, FIG. 2 will be described with reference to FIGS. 3A to 5 .

도출부(200)는 적어도 하나의 마커가 설치된 공간에서 카메라에 의해 촬영된 마커에 대한 교정 영상으로부터 도출된 마커에 대한 2차원 좌표 정보, 공간에 설치된 수신기로부터 측정된 마커에 대한 3차원 좌표 정보 및 카메라 내부 파라미터 정보에 기초하여 카메라 외부 파라미터 정보를 도출할 수 있다. 여기서, 마커에 대한 교정 영상은 객체 추적과 관련된 학습 데이터를 생성하기 위한 학습 영상을 촬영하기 이전에, 특정 공간을 촬영하는 카메라에 대한 파라미터 정보를 획득하기 위해 해당 공간 내에 설치된 마커를 해당 카메라를 통해 촬영한 2차원 영상을 의미한다. 여기서, 카메라 내부 파라미터는 예를 들어, 카메라 렌즈의 초점 거리, 카메라 렌즈의 중심점, 이미지 센서에 대한 비대칭계수 및 카메라 렌즈에 대한 왜곡 계수를 포함할 수 있다. 여기서, 카메라 렌즈의 초점 거리(f, focal length)는 카메라 렌즈의 중심과 카메라에 설치된 이미지 센서와의 거리를 의미하고, 카메라 렌즈의 중심점(c, principal point)은 카메라의 핀홀에서 이미지 센서에 내린 수선의 발을 의미한다. 이미지 센서에 대한 비대칭 계수(α, skew coefficient)는 이미지 센서의 셀(cell) 배열에 대한 y축의 기울어진 정도를 의미하고, 카메라 렌즈에 대한 왜곡 계수(p, distortion coefficient)는 카메라 렌즈의 왜곡 정도를 나타낸 것이다. 여기서, 카메라 외부 파라미터 정보는 3차원 좌표계상에서의 카메라의 위치 및 자세 정보를 의미한다. The derivation unit 200 includes two-dimensional coordinate information for a marker derived from a calibration image for a marker photographed by a camera in a space in which at least one marker is installed, three-dimensional coordinate information for a marker measured from a receiver installed in the space, and The camera external parameter information may be derived based on the camera internal parameter information. Here, the calibration image for the marker is before shooting the learning image for generating learning data related to object tracking, the marker installed in the space in order to obtain parameter information about the camera that shoots a specific space through the camera It means a two-dimensional image taken. Here, the camera internal parameter may include, for example, a focal length of the camera lens, a center point of the camera lens, an asymmetry coefficient for the image sensor, and a distortion coefficient for the camera lens. Here, the focal length (f, focal length) of the camera lens means the distance between the center of the camera lens and the image sensor installed in the camera, and the central point (c, principal point) of the camera lens is the distance from the pinhole of the camera to the image sensor. It means the feet of the water line. The skew coefficient (α) for the image sensor means the degree of inclination of the y-axis with respect to the cell arrangement of the image sensor, and the distortion coefficient (p, distortion coefficient) for the camera lens is the degree of distortion of the camera lens. is shown. Here, the camera external parameter information means information on the position and posture of the camera in the three-dimensional coordinate system.

예를 들어, 도 3a 및 도 3b를 함께 참조하면, 도출부(200)는 실감형 미디어 컨텐츠 제공 서버(100)와 연동된 카메라(120)가 특정 공간에 설치된 적어도 하나의 마커(32)를 촬영한 경우, 카메라(120)로부터 촬영된 마커(32)에 대한 교정 영상(301)을 수신하고, 교정 영상(301)으로부터 마커(32)에 대한 2차원 좌표 정보를 도출할 수 있다. For example, referring to FIGS. 3A and 3B together, the derivation unit 200 captures at least one marker 32 installed in a specific space with a camera 120 interlocked with the immersive media content providing server 100 . In one case, the calibration image 301 of the marker 32 photographed from the camera 120 may be received, and 2D coordinate information of the marker 32 may be derived from the calibration image 301 .

도출부(200)는 특정 공간에 설치된 복수의 수신기(30)가 특정 공간에 매달린 적어도 하나의 마커(32)를 향해 송출 신호를 송신한 송신 시간 정보 및 마커(32)에 의해 반사되어 돌아오는 반사 신호를 수신한 수신 시간 정보에 기초하여 마커(32)와 수신기(30) 간의 거리 정보를 도출할 수 있다. 또한, 도출부(200)는 수신기(30)의 위치 정보와, 마커(32) 및 수신기(30) 간의 거리 정보에 기초하여 특정 공간 상에서의 마커(32)에 대한 3차원 좌표 정보를 도출할 수 있다. The derivation unit 200 includes transmission time information transmitted by a plurality of receivers 30 installed in a specific space to at least one marker 32 hanging in a specific space, and a reflection reflected back by the marker 32 and transmission time information. Distance information between the marker 32 and the receiver 30 may be derived based on the reception time information at which the signal is received. In addition, the derivation unit 200 may derive 3D coordinate information for the marker 32 in a specific space based on the location information of the receiver 30 and the distance information between the marker 32 and the receiver 30 . there is.

도출부(200)는 도 3b의 행렬식에 카메라 내부 파라미터 정보(303), 마커(32)에 대한 2차원 좌표 정보(305) 및 마커(32)에 대한 3차원 좌표 정보(307)를 대입하여 카메라 외부 파라미터 정보(309)를 도출할 수 있다. 이 때, 카메라 외부 파라미터 정보(309)는 12개의 미지수가 있는 3개의 방정식으로 구성되며, 각 방정식은 마커(32)에 대한 2차원 좌표 정보(305), 마커(32)에 대한 3차원 좌표 정보(307) 및 카메라 내부 파라미터 정보(303)의 요소로 이루어져 있기 때문에 4개 이상의 트래커(객체에 부착되어 객체의 위치를 측정하는 장치)를 활용하면 12개의 미지수를 해결할 수 있는 12개의 방정식이 수립되어 공간 상에서의 카메라(120)에 대한 카메라 외부 파라미터 정보(309)를 도출할 수 있다. The derivation unit 200 substitutes the camera internal parameter information 303, the two-dimensional coordinate information 305 for the marker 32, and the three-dimensional coordinate information 307 for the marker 32 into the determinant of FIG. External parameter information 309 may be derived. At this time, the camera external parameter information 309 is composed of three equations with 12 unknowns, and each equation is two-dimensional coordinate information 305 for the marker 32 and three-dimensional coordinate information for the marker 32 . (307) and camera internal parameter information (303), 12 equations that can solve 12 unknowns are established when 4 or more trackers (a device attached to an object to measure the position of the object) are used. Camera external parameter information 309 for the camera 120 in space may be derived.

도출부(200)는 객체(130)에 부착된 트래커의 위치에 해당하는 좌표 정보에 트래커의 자세에 대한 변환 행렬을 적용하여 트래커가 부착된 객체(130)의 각 모서리의 꼭짓점에 대한 3차원 좌표 정보를 도출할 수 있다. The derivation unit 200 applies a transformation matrix for the posture of the tracker to the coordinate information corresponding to the position of the tracker attached to the object 130, and three-dimensional coordinates for the vertices of each corner of the object 130 to which the tracker is attached information can be derived.

도 3c를 참조하면, 도출부(200)는 객체(130)의 형태를 계량한 후, 영상 내에서 객체(130)의 식별이 용이한 모서리의 꼭짓점을 이루는 점들을 선정할 수 있다. Referring to FIG. 3C , after measuring the shape of the object 130 , the derivation unit 200 may select points constituting vertices of an easily identifiable edge of the object 130 in the image.

도출부(200)는 객체(130)에 트래커(150)를 부착하기 위한 부착 위치 정보(311)를 결정하고, 객체(130)에 부착된 트래커(150)의 부착 위치 정보(311)로부터 객체(130)의 모서리의 꼭짓점까지의 거리를 측정할 수 있다. 여기서, 트래커(150)의 부착 위치 정보(311)는 트래커(150)에 대한 3차원 좌표 정보로 구성될 수 있다. The derivation unit 200 determines the attachment location information 311 for attaching the tracker 150 to the object 130, and from the attachment location information 311 of the tracker 150 attached to the object 130 to the object ( 130) can measure the distance to the vertex of the edge. Here, the attachment position information 311 of the tracker 150 may be composed of three-dimensional coordinate information for the tracker 150 .

도출부(200)는 객체(130)에 부착된 트래커(150)의 자세 정보(부착 위치 정보(311))를 기준으로 X축, Y축, Z축에 대하여 트래커(150)의 자세에 대한 변환 행렬(313)을 도출할 수 있다. 이 때, 도출부(200)는 객체(130)의 모서리의 꼭짓점까지의 거리 측정 과정에 트래커(150)에 대한 변환(Translation)값 및 회전값을 적용하여 트래커(150)의 자세에 대한 변환 행렬(313)을 도출할 수 있다. The derivation unit 200 converts the posture of the tracker 150 with respect to the X-axis, Y-axis, and Z-axis based on the posture information (attachment location information 311) of the tracker 150 attached to the object 130. A matrix 313 may be derived. At this time, the derivation unit 200 applies a translation value and a rotation value for the tracker 150 in the process of measuring the distance to the vertex of the corner of the object 130 , and a transformation matrix for the posture of the tracker 150 . (313) can be derived.

도출부(200)는 트래커(150)의 자세 정보를 활용하여 객체(130)의 모서리의 꼭짓점을 이루는 각 엣지로의 변환 행렬(313, [Rt])을 도출할 수 있다. 예를 들어, 객체(130)의 후면 중앙부에 트래커(150)가 부착되어 있는 경우, 객체(130)는 평면상의 회전하지 않으므로 회전행렬은 항등 행렬(identity matrix)로 두고, 트래커(150)로부터 X축, Y축, Z축의 변화량을 측정함으로써 회전 행렬을 t값으로 활용할 수 있다. The derivation unit 200 may derive the transformation matrix 313, [Rt] to each edge forming the vertex of the corner of the object 130 by using the posture information of the tracker 150 . For example, when the tracker 150 is attached to the rear center of the object 130, the object 130 does not rotate on a plane, so the rotation matrix is set as an identity matrix, and X from the tracker 150 The rotation matrix can be used as a t-value by measuring the amount of change in the axis, Y-axis, and Z-axis.

도출부(200)는 객체(130)에 부착된 트래커의 위치에 해당하는 좌표 정보(트래커(150)의 부착 위치 정보(311))에 트래커(150)의 자세에 대한 변환 행렬(313)을 적용하면서 객체(130)의 모서리를 이루는 꼭짓점들(315)을 선정할 수 있다. 또한, 도출부(200)는 선정된 객체(130)의 점들(315)을 이용하여 객체(130)의 각 모서리의 꼭짓점에 대한 3차원 좌표 정보를 도출할 수 있다. 여기서, 트래커를 객체(130)에 부착하는 이유는 객체(130)에 부착된 트래커의 위치에 해당하는 좌표 정보를 통해 객체(130)의 각 모서리의 꼭짓점에 대한 3차원 좌표 정보를 도출하기 위함이다. The derivation unit 200 applies a transformation matrix 313 for the posture of the tracker 150 to coordinate information corresponding to the position of the tracker attached to the object 130 (attachment position information 311 of the tracker 150). While doing so, the vertices 315 forming the corners of the object 130 may be selected. Also, the derivation unit 200 may derive 3D coordinate information about the vertices of each corner of the object 130 by using the points 315 of the selected object 130 . Here, the reason for attaching the tracker to the object 130 is to derive three-dimensional coordinate information for the vertices of each corner of the object 130 through coordinate information corresponding to the position of the tracker attached to the object 130. .

도 3c 및 도 3d를 함께 참조하면, 도출부(200)는 트래커(150)가 부착된 객체(130)를 포함하는 학습용 영상(321)을 촬영한 카메라(120)로부터 학습용 영상(321)을 수신한 경우, 학습용 영상(321)을 촬영한 카메라(120)에 대한 카메라 내부 파라미터 정보(303), 카메라 외부 파라미터 정보(309) 및 객체(130)에 대한 3차원 좌표 정보(317)에 기초하여 학습용 영상(321) 내 객체(130)에 대한 2차원 좌표 정보(319)를 도출할 수 있다. 3C and 3D together, the derivation unit 200 receives the learning image 321 from the camera 120 that has captured the learning image 321 including the object 130 to which the tracker 150 is attached. In one case, based on the camera internal parameter information 303 for the camera 120 that has captured the learning image 321 , the camera external parameter information 309 and the three-dimensional coordinate information 317 for the object 130 for learning Two-dimensional coordinate information 319 for the object 130 in the image 321 may be derived.

도출부(200)는 도 3d의 행렬식에 카메라(120)에 대한 카메라 내부 파라미터 정보(303), 카메라 외부 파라미터 정보(309) 및 객체(130)에 대한 3차원 좌표 정보(317)를 대입하여 학습용 영상(321) 내 객체(130)에 대한 2차원 좌표 정보(319)를 도출할 수 있다. The derivation unit 200 substitutes the camera internal parameter information 303 for the camera 120, the camera external parameter information 309, and the three-dimensional coordinate information 317 for the object 130 into the determinant of FIG. 3D for learning Two-dimensional coordinate information 319 for the object 130 in the image 321 may be derived.

학습 데이터 생성부(210)는 트래커(150)가 부착된 객체(130)에 대한 학습용 영상(321) 및 학습용 영상(321) 내 객체(130)에 대한 2차원 좌표 정보에 기초하여 학습 데이터를 생성할 수 있다. The training data generation unit 210 generates training data based on the two-dimensional coordinate information for the object 130 in the training image 321 and the training image 321 for the object 130 to which the tracker 150 is attached. can do.

도 3e를 참조하면, 학습 데이터 생성부(210)는 실감형 미디어 컨텐츠 제공 서버(100)와 연동하는 프로젝터(110)를 통해 실감형 미디어 컨텐츠(140)가 객체(130)로 투영되고, 해당 객체(130)를 촬영한 카메라(120)로부터 실감형 미디어 컨텐츠(140)가 투영된 객체(130)를 포함하는 학습용 영상(321)을 수신한 경우, 실감형 미디어 컨텐츠(140)가 투영된 객체(130)에 대한 학습용 영상(321) 및 학습용 영상(321) 내 객체(130)에 대한 2차원 좌표 정보에 기초하여 학습 데이터를 생성할 수 있다. Referring to FIG. 3E , the learning data generating unit 210 projects the immersive media content 140 to the object 130 through the projector 110 interworking with the immersive media content providing server 100 , and the corresponding object. When the learning image 321 including the object 130 on which the immersive media content 140 is projected is received from the camera 120 that has captured the image 130, the object on which the immersive media content 140 is projected ( Learning data may be generated based on the training image 321 for 130 , and 2D coordinate information about the object 130 in the training image 321 .

도출부(200)는 도 3d의 행렬식에 카메라(120)에 대한 카메라 내부 파라미터 정보(303), 카메라 외부 파라미터 정보(309) 및 객체(130)의 위치 변동 또는 자세 변동에 따른 객체(130)에 3차원 좌표 정보(317)를 대입함으로써 객체(130)의 위치 변동 또는 자세 변동에 따라 촬영된 객체(130)에 대한 학습용 영상(321) 내 객체(130)의 각 모서리의 꼭짓점에 대한 2차원 좌표 정보(319)를 도출할 수 있다. The derivation unit 200 includes the camera internal parameter information 303 for the camera 120, the camera external parameter information 309, and the object 130 according to the position change or posture change of the object 130 in the determinant of FIG. 3D. By substituting the three-dimensional coordinate information 317, the two-dimensional coordinates for the vertices of each corner of the object 130 in the learning image 321 for the object 130 photographed according to the position change or posture change of the object 130 Information 319 may be derived.

학습 데이터 생성부(210)는 객체(130)의 위치 변동 또는 자세 변동에 따라 변경되는 학습용 영상(321) 및 객체(130)의 각 모서리의 꼭짓점에 대한 2차원 좌표 정보를 매핑하여 학습 데이터를 생성할 수 있다. The learning data generating unit 210 generates learning data by mapping the two-dimensional coordinate information about the vertices of the learning image 321 and each corner of the object 130 that are changed according to the position change or the posture change of the object 130 . can do.

도 3f를 참조하면, 학습 데이터 생성부(210)는 객체(130)의 제 1 자세에 따라 촬영된 제 1 학습용 영상 및 제 1 학습용 영상 내 객체(130)의 각 모서리의 꼭짓점에 대한 2차원 좌표 정보((x1, y1), (x2, y2), (x3 y3), (x4, y4))를 매핑하여 제 1 학습 데이터를 생성할 수 있다. 또한, 학습 데이터 생성부(210)는 객체(130)의 제 2 자세에 따라 촬영된 제 2 학습용 영상 및 제 2 학습용 영상 내 객체(130)의 각 모서리의 꼭짓점에 대한 2차원 좌표 정보((x1, y1), (x2, y2), (x3 y3), (x4, y4))를 매핑하여 제 2 학습 데이터를 생성할 수 있다. Referring to FIG. 3F , the learning data generating unit 210 is a two-dimensional coordinate for the vertices of each corner of the object 130 in the first learning image and the first learning image captured according to the first posture of the object 130 . The first training data may be generated by mapping the information ((x1, y1), (x2, y2), (x3 y3), (x4, y4)). In addition, the learning data generating unit 210 may include two-dimensional coordinate information ((x1) for the vertices of each corner of the object 130 in the second learning image and the second learning image captured according to the second posture of the object 130 . , y1), (x2, y2), (x3 y3), (x4, y4)) may be mapped to generate second training data.

학습부(220)는 생성된 학습 데이터에 기초하여 추적 모델을 학습시킬 수 있다. 여기서, 추적 모델은 객체의 각 모서리의 꼭짓점에 대한 2차원 좌표 정보를 획득하기 위한 모델로서 형태가 서로 다른 객체마다 다르게 생성될 수 있다. The learning unit 220 may train the tracking model based on the generated training data. Here, the tracking model is a model for acquiring two-dimensional coordinate information about the vertices of each corner of the object, and may be generated differently for each object having a different shape.

예를 들어, 제 1 객체와 제 2 객체의 형태가 서로 다른 경우, 학습부(220)는 제 1 학습 데이터에 포함된 제 1 학습용 영상 및 제 1 학습용 영상 내 제 1 객체의 각 모서리의 꼭짓점에 대한 2차원 정보에 기초하여 추적 모델을 학습시켜 제 1 객체에 대한 좌표 추적에 이용할 수 있고, 제 2 학습 데이터에 포함된 제 2 학습용 영상 및 제 2 학습용 영상 내 제 2 객체의 각 모서리의 꼭짓점에 대한 2차원 정보에 기초하여 추적 모델을 학습시켜 제 2 객체에 대한 좌표 추적에 이용할 수 있다. For example, if the shapes of the first object and the second object are different from each other, the learning unit 220 may set the first learning image included in the first learning data and the vertex of each corner of the first object in the first learning image. It is possible to learn a tracking model based on the two-dimensional information about the first object and use it to track the coordinates of the first object, and to the vertices of each corner of the second object in the second learning image and the second learning image included in the second learning data. A tracking model can be trained based on the two-dimensional information about the object and used for tracking the coordinates of the second object.

도 4를 참조하면, 학습부(220)는 학습용 영상을 추적 모델(40)에 입력하여 학습용 영상에 매핑된 객체의 각 모서리의 꼭짓점에 대한 2차원 좌표 정보가 출력하도록 하는 추적 모델(40)을 학습시킬 수 있다. 예를 들어, 학습부(220)는 추적 모델(40)이 제 1 학습용 영상을 입력받으면, 제 1 학습용 영상에 매핑된 객체의 각 모서리의 꼭짓점에 대한 2차원 좌표 정보를 출력하도록 추적 모델(40)을 학습시킬 수 있다. 또한, 학습부(220)는 추적 모델(40)이 제 2 학습용 영상을 입력받으면, 제 2 학습용 영상에 매핑된 객체의 각 모서리의 꼭짓점에 대한 2차원 좌표 정보를 출력하도록 추적 모델(40)을 학습시킬 수 있다. Referring to FIG. 4 , the learning unit 220 inputs the training image to the tracking model 40 to output the two-dimensional coordinate information for the vertices of each corner of the object mapped to the training image 40. can learn For example, when the tracking model 40 receives the first training image, the learning unit 220 outputs two-dimensional coordinate information about the vertices of each corner of the object mapped to the first training image. ) can be learned. In addition, when the tracking model 40 receives the second training image, the learning unit 220 outputs the tracking model 40 to output two-dimensional coordinate information about the vertices of each corner of the object mapped to the second training image. can learn

추적 모델(40)의 학습에 필요한 학습 데이터의 생성이 완료된 이후에는 객체(130)로부터 트래커를 제거한다. After the generation of training data required for training of the tracking model 40 is completed, the tracker is removed from the object 130 .

출력부(230)는 실감형 미디어 컨텐츠 제공 서버(100)와 연동하는 프로젝터(110)를 통해 실감형 미디어 컨텐츠(140)를 출력하여 객체(130) 상에 투영시킬 수 있다. 여기서, 객체(130)는 트래커가 부착되지 않은 객체일 수 있다. The output unit 230 may output the immersive media content 140 through the projector 110 interworking with the immersive media content providing server 100 and project it onto the object 130 . Here, the object 130 may be an object to which a tracker is not attached.

추적부(240)는 객체(130)가 움직이는 경우, 학습된 추적 모델(40)을 통해 움직이는 객체(130)에 대한 2차원 좌표 정보를 추적할 수 있다. 추적부(240)는 학습된 추적 모델(40)을 통해 움직이는 객체(130)에 대한 촬영 영상으로부터 객체(130)의 각 모서리의 꼭짓점에 대한 2차원 좌표 정보를 추적할 수 있다. When the object 130 moves, the tracker 240 may track 2D coordinate information on the moving object 130 through the learned tracking model 40 . The tracker 240 may track the two-dimensional coordinate information of the vertices of each corner of the object 130 from the captured image of the moving object 130 through the learned tracking model 40 .

추적부(240)는 학습된 추적 모델(40)을 통해 연속적인 시간에서 획득한 객체(130)의 각 모서리의 꼭짓점에 대한 2차원 좌표 정보를 활용하여 객체(130)의 자세를 추정할 수 있다. 또한, 추적부(240)는 추정된 객체(130)의 자세에 대응하는 자세값을 활용하여 객체(130)의 위치값을 계산할 수도 있다. The tracker 240 may estimate the posture of the object 130 by using the two-dimensional coordinate information about the vertices of each corner of the object 130 acquired at continuous time through the learned tracking model 40 . . Also, the tracker 240 may calculate a position value of the object 130 by using a posture value corresponding to the estimated posture of the object 130 .

도 5를 참조하면, 추적부(240)는 t 시간에 촬영된 움직이는 객체(130)(예컨대, 이동하거나 회전하는 객체(130))에 대한 제 1 촬영 영상을 추적 모델(40)에 입력하여, 추적 모델(40)을 통해, 제 1 촬영 영상으로부터 객체(130)의 각 모서리의 꼭짓점에 대한 2차원 좌표 정보를 추적할 수 있다. Referring to FIG. 5, the tracking unit 240 inputs the first captured image of the moving object 130 (eg, the moving or rotating object 130) photographed at time t to the tracking model 40, Through the tracking model 40 , 2D coordinate information about the vertices of each corner of the object 130 may be tracked from the first captured image.

이어서, 추적부(240)는 t+1 시간에 촬영된 움직이는 객체(130)에 대한 제 2 촬영 영상을 추적 모델(40)에 입력하여, 추적 모델(40)을 통해 제 2 촬영 영상으로부터 객체(130)의 각 모서리의 꼭짓점에 대한 2차원 좌표 정보를 추적할 수 있다. Then, the tracking unit 240 inputs the second captured image of the moving object 130 photographed at time t+1 into the tracking model 40, and the object ( 130), the two-dimensional coordinate information for the vertices of each corner can be tracked.

이렇듯 연속적인 촬영 영상들 간의 객체(130)의 각 모서리의 꼭짓점에 대한 2차원 좌표 정보에 대한 변화를 [수학식 1]에 적용하면, t 시간 대비 t+1 시간에서의 객체(130)의 3차원 자세 정보(

Figure pat00001
) 및 위치 정보(
Figure pat00002
)를 계산할 수 있다. As such, when the change of the two-dimensional coordinate information for the vertices of the corners of the object 130 between successive captured images is applied to [Equation 1], 3 of the object 130 at time t+1 compared to time t Dimension posture information (
Figure pat00001
) and location information (
Figure pat00002
) can be calculated.

[수학식 1][Equation 1]

Figure pat00003
Figure pat00003

조정부(250)는 추적된 객체(130)에 대한 2차원 좌표 정보에 기초하여 실감형 미디어 컨텐츠(140)를 조정할 수 있다. 예를 들어, 조정부(250)는 t 시간에 추적된 객체(130)에 대한 2차원 좌표 정보 및 t+1 시간에 추적된 객체(130)에 대한 2차원 좌표 정보에 따라 계산된 t 시간 대비 t+1 시간에서의 변화된 객체(130)의 3차원 자세 정보 및 위치 정보에 기초하여 실감형 미디어 컨텐츠(140)를 조정할 수 있다. The adjuster 250 may adjust the immersive media content 140 based on the two-dimensional coordinate information of the tracked object 130 . For example, the adjustment unit 250 is calculated according to the two-dimensional coordinate information for the object 130 tracked at time t and the two-dimensional coordinate information for the object 130 tracked at time t+1 versus time t The immersive media content 140 may be adjusted based on the 3D posture information and location information of the object 130 changed at +1 time.

출력부(230)는 조정부(250)에 의해 조정된 실감형 미디어 컨텐츠(140)를 실감형 미디어 컨텐츠 제공 서버(100)와 연동된 프로젝터(110)를 통해 출력하여 객체(130) 상에 투영시킬 수 있다. The output unit 230 outputs the immersive media content 140 adjusted by the adjustment unit 250 through the projector 110 linked with the immersive media content providing server 100 to project it onto the object 130 . can

이와 같이 본 발명은 프로젝터(110)를 통해 t 시간 대비 t+1 시간에서의 변화된 객체(130)의 3차원 자세 정보 및 위치 정보에 대응하여 실감형 미디어 컨텐츠(140)를 객체(130) 상에 투영시킴으로써 별도의 트래커 시스템 등의 고가 장비 없이도 프로젝터 기반의 실감형 미디어 서비스를 제공할 수 있다. As described above, in the present invention, the immersive media content 140 is displayed on the object 130 in response to the 3D posture information and location information of the object 130 changed at time t+1 compared to time t through the projector 110 . By projecting, it is possible to provide a projector-based immersive media service without expensive equipment such as a separate tracker system.

한편, 당업자라면, 도출부(200), 학습 데이터 생성부(210), 학습부(220), 출력부(230), 추적부(240) 및 조정부(250) 각각이 분리되어 구현되거나, 이 중 하나 이상이 통합되어 구현될 수 있음을 충분히 이해할 것이다. Meanwhile, for those skilled in the art, the derivation unit 200 , the learning data generation unit 210 , the learning unit 220 , the output unit 230 , the tracking unit 240 , and the adjustment unit 250 are implemented separately, or among them It will be fully understood that one or more may be integrated and implemented.

도 6은 본 발명의 일 실시예에 따른, 실감형 미디어 컨텐츠를 제공하는 방법을 나타낸 흐름도이다. 6 is a flowchart illustrating a method of providing immersive media content according to an embodiment of the present invention.

도 6을 참조하면, 단계 S601에서 실감형 미디어 컨텐츠 제공 서버(100)는 트래커가 부착된 객체(130)에 대한 학습용 영상 및 학습용 영상 내 객체(130) 대한 2차원 좌표 정보에 기초하여 학습 데이터를 생성할 수 있다. 학습 데이터의 생성이 완료된 이후에는 트래커는 객체(130)로부터 제거될 수 있다. Referring to FIG. 6 , in step S601 , the immersive media content providing server 100 provides training data based on the training image for the object 130 to which the tracker is attached and the two-dimensional coordinate information for the object 130 in the training image. can create After the generation of the training data is completed, the tracker may be removed from the object 130 .

단계 S603에서 실감형 미디어 컨텐츠 제공 서버(100)는 생성된 학습 데이터에 기초하여 추적 모델을 학습시킬 수 있다. In step S603, the immersive media content providing server 100 may train a tracking model based on the generated training data.

단계 S605에서 실감형 미디어 컨텐츠 제공 서버(100)는 실감형 미디어 컨텐츠 제공 서버(100)와 연동하는 프로젝터(110)를 통해 실감형 미디어 컨텐츠(140)를 출력하여 객체(130) 상에 투영시킬 수 있다. In step S605 , the immersive media content providing server 100 may output the immersive media content 140 through the projector 110 interworking with the immersive media content providing server 100 and project it onto the object 130 . there is.

단계 S607에서 실감형 미디어 컨텐츠 제공 서버(100)는 객체(130)가 움직이는 경우, 학습된 추적 모델을 통해 움직이는 객체(130)에 대한 2차원 좌표 정보를 추적할 수 있다. In step S607 , when the object 130 moves, the immersive media content providing server 100 may track the two-dimensional coordinate information of the moving object 130 through the learned tracking model.

단계 S609에서 실감형 미디어 컨텐츠 제공 서버(100)는 추적된 객체(130)에 대한 2차원 좌표 정보에 기초하여 실감형 미디어 컨텐츠를 조정할 수 있다. In step S609 , the immersive media content providing server 100 may adjust immersive media content based on the two-dimensional coordinate information on the tracked object 130 .

단계 S611에서 실감형 미디어 컨텐츠 제공 서버(100)는 프로젝터(110)를 통해 조정된 실감형 미디어 컨텐츠(140)를 출력하여 객체(130) 상에 투영시킬 수 있다. In step S611 , the immersive media content providing server 100 may output the immersive media content 140 adjusted through the projector 110 and project it onto the object 130 .

상술한 설명에서, 단계 S601 내지 S611은 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다. In the above description, steps S601 to S611 may be further divided into additional steps or combined into fewer steps, according to an embodiment of the present invention. In addition, some steps may be omitted if necessary, and the order between steps may be changed.

본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. An embodiment of the present invention may also be implemented in the form of a recording medium including instructions executable by a computer, such as a program module executed by a computer. Computer-readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. Also, computer-readable media may include all computer storage media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다. The above description of the present invention is for illustration, and those of ordinary skill in the art to which the present invention pertains can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a dispersed form, and likewise components described as distributed may be implemented in a combined form.

본 발명의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다. The scope of the present invention is indicated by the following claims rather than the detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalent concepts should be construed as being included in the scope of the present invention. .

100: 실감형 미디어 컨텐츠 제공 서버
110: 프로젝터
120: 카메라
130: 객체
140: 실감형 미디어 컨텐츠
200: 도출부
210: 학습 데이터 생성부
220: 학습부
230: 출력부
240: 추적부
250: 조정부
100: realistic media content providing server
110: projector
120: camera
130: object
140: immersive media content
200: derivation part
210: training data generation unit
220: study unit
230: output unit
240: tracking unit
250: adjustment unit

Claims (17)

실감형 미디어 컨텐츠 제공 서버에 있어서,
트래커가 부착된 객체에 대한 학습용 영상 및 상기 학습용 영상 내 상기 객체에 대한 2차원 좌표 정보에 기초하여 학습 데이터를 생성하는 학습 데이터 생성부;
상기 생성된 학습 데이터에 기초하여 추적 모델을 학습시키는 학습부;
상기 실감형 미디어 컨텐츠 제공 서버와 연동하는 프로젝터를 통해 실감형 미디어 컨텐츠를 출력하여 객체 상에 투영시키는 출력부;
상기 객체가 움직이는 경우, 상기 학습된 추적 모델을 통해 상기 움직이는 객체에 대한 2차원 좌표 정보를 추적하는 추적부; 및
상기 추적된 객체에 대한 2차원 좌표 정보에 기초하여 상기 실감형 미디어 컨텐츠를 조정하는 조정부
를 포함하고,
상기 출력부는 상기 프로젝터를 통해 상기 조정된 실감형 미디어 컨텐츠를 출력하여 상기 객체 상에 투영시키는 것인, 실감형 미디어 컨텐츠 제공 서버.
In the immersive media content providing server,
a training data generator for generating training data based on a training image for an object to which a tracker is attached and two-dimensional coordinate information for the object in the training image;
a learning unit for learning a tracking model based on the generated training data;
an output unit for outputting immersive media content and projecting it onto an object through a projector that interworks with the immersive media content providing server;
a tracking unit for tracking two-dimensional coordinate information on the moving object through the learned tracking model when the object moves; and
Adjustment unit for adjusting the immersive media content based on the two-dimensional coordinate information of the tracked object
including,
The immersive media content providing server, wherein the output unit outputs the adjusted immersive media content through the projector and projects it on the object.
제 1 항에 있어서,
상기 학습용 영상을 촬영하는 카메라에 대한 카메라 내부 파라미터 정보, 카메라 외부 파라미터 정보 및 상기 객체에 대한 3차원 좌표 정보에 기초하여 상기 학습용 영상 내 상기 객체에 대한 2차원 좌표 정보를 도출하는 도출부;
를 더 포함하는 것인, 실감형 미디어 컨텐츠 제공 서버.
The method of claim 1,
a derivation unit for deriving two-dimensional coordinate information on the object in the learning image based on camera internal parameter information, camera external parameter information, and three-dimensional coordinate information on the object for the camera that captures the learning image;
Which will further include, immersive media content providing server.
제 2 항에 있어서,
상기 도출부는
적어도 하나의 마커가 설치된 공간에서 상기 카메라에 의해 촬영된 상기 마커에 대한 교정 영상으로부터 도출된 상기 마커에 대한 2차원 좌표 정보, 상기 공간에 설치된 수신기로부터 측정된 상기 마커에 대한 3차원 좌표 정보 및 상기 카메라 내부 파라미터 정보에 기초하여 상기 카메라 외부 파라미터 정보를 도출하는 것인, 실감형 미디어 컨텐츠 제공 서버.
3. The method of claim 2,
The derivation part
Two-dimensional coordinate information for the marker derived from a calibration image for the marker photographed by the camera in a space in which at least one marker is installed, three-dimensional coordinate information for the marker measured from a receiver installed in the space, and the The immersive media content providing server that derives the camera external parameter information based on the camera internal parameter information.
제 2 항에 있어서,
상기 도출부는
상기 객체에 부착된 상기 트래커의 위치에 해당하는 좌표 정보에 상기 트래커의 자세에 대한 변환 행렬을 적용하여 상기 트래커가 부착된 상기 객체의 각 모서리의 꼭짓점에 대한 3차원 좌표 정보를 도출하는 것인, 실감형 미디어 컨텐츠 제공 서버.
3. The method of claim 2,
The derivation part
By applying a transformation matrix for the posture of the tracker to the coordinate information corresponding to the position of the tracker attached to the object to derive three-dimensional coordinate information for the vertices of each corner of the object to which the tracker is attached, A server that provides realistic media content.
제 4 항에 있어서,
상기 도출부는
상기 객체의 위치 변동 또는 자세 변동에 따라 촬영된 상기 객체에 대한 학습용 영상 내 상기 객체의 각 모서리의 꼭짓점에 대한 2차원 좌표 정보를 도출하고,
상기 학습 데이터 생성부는
상기 객체의 위치 변동 또는 자세 변동에 따라 변경되는 상기 학습용 영상 및 상기 객체의 각 모서리의 꼭짓점에 대한 2차원 좌표 정보를 매핑하여 상기 학습 데이터를 생성하는 것인, 실감형 미디어 컨텐츠 제공 서버.
5. The method of claim 4,
The derivation part
Deriving two-dimensional coordinate information about the vertices of each corner of the object in the learning image for the object photographed according to the position change or the posture change of the object,
The learning data generation unit
The immersive media content providing server that generates the learning data by mapping two-dimensional coordinate information about the vertices of each corner of the object and the learning image that is changed according to a change in position or posture of the object.
제 5 항에 있어서,
상기 학습부는
상기 학습용 영상을 상기 추적 모델에 입력하여 상기 학습용 영상에 매핑된 상기 객체의 각 모서리의 꼭짓점에 대한 2차원 좌표 정보가 출력하도록 하는 상기 추적 모델을 학습시키는 것인, 실감형 미디어 컨텐츠 제공 서버.
6. The method of claim 5,
the learning unit
The immersive media content providing server is to learn the tracking model by inputting the training image to the tracking model and outputting two-dimensional coordinate information for vertices of each corner of the object mapped to the training image.
제 1 항에 있어서,
상기 추적부는
상기 학습된 추적 모델을 통해 상기 움직이는 객체에 대한 촬영 영상으로부터 상기 객체의 각 모서리의 꼭짓점에 대한 2차원 좌표 정보를 추적하는 것인, 실감형 미디어 컨텐츠 제공 서버.
The method of claim 1,
the tracking unit
The immersive media content providing server that tracks the two-dimensional coordinate information for the vertices of each corner of the object from the captured image of the moving object through the learned tracking model.
제 1 항에 있어서,
상기 추적 모델은 형태가 서로 다른 객체마다 생성되는 것인, 실감형 미디어 컨텐츠 제공 서버.
The method of claim 1,
The tracking model is to be generated for each object having a different shape, immersive media content providing server.
실감형 미디어 컨텐츠 제공 서버에 의해 수행되는 실감형 미디어 컨텐츠를 제공하는 방법에 있어서,
트래커가 부착된 객체에 대한 학습용 영상 및 상기 학습용 영상 내 상기 객체에 대한 2차원 좌표 정보에 기초하여 학습 데이터를 생성하는 단계;
상기 생성된 학습 데이터에 기초하여 추적 모델을 학습시키는 단계;
상기 실감형 미디어 컨텐츠 제공 서버와 연동하는 프로젝터를 통해 실감형 미디어 컨텐츠를 출력하여 객체 상에 투영시키는 단계;
상기 객체가 움직이는 경우, 상기 학습된 추적 모델을 통해 상기 움직이는 객체에 대한 2차원 좌표 정보를 추적하는 단계;
상기 추적된 객체에 대한 2차원 좌표 정보에 기초하여 상기 실감형 미디어 컨텐츠를 조정하는 단계 및
상기 프로젝터를 통해 상기 조정된 실감형 미디어 컨텐츠를 출력하여 상기 객체 상에 투영시키는 단계
를 포함하는 것인, 실감형 미디어 컨텐츠 제공 방법.
A method of providing immersive media content performed by a immersive media content providing server, the method comprising:
Generating learning data based on the two-dimensional coordinate information for the object in the training image and the training image for the tracker is attached to the object;
training a tracking model based on the generated training data;
outputting the immersive media content through a projector interworking with the immersive media content providing server and projecting the immersive media content onto an object;
tracking two-dimensional coordinate information on the moving object through the learned tracking model when the object moves;
adjusting the immersive media content based on the two-dimensional coordinate information for the tracked object; and
outputting the adjusted immersive media content through the projector and projecting it on the object
A method for providing immersive media content comprising a.
제 9 항에 있어서,
상기 학습용 영상을 촬영하는 카메라에 대한 카메라 내부 파라미터 정보, 카메라 외부 파라미터 정보 및 상기 객체에 대한 3차원 좌표 정보에 기초하여 상기 학습용 영상 내 상기 객체에 대한 2차원 좌표 정보를 도출하는 단계
를 더 포함하는 것인, 실감형 미디어 컨텐츠 제공 방법.
10. The method of claim 9,
Deriving two-dimensional coordinate information for the object in the learning image based on the camera internal parameter information, the camera external parameter information, and the three-dimensional coordinate information about the object for the camera for capturing the learning image
The method further comprising a, immersive media content providing method.
제 10 항에 있어서,
적어도 하나의 마커가 설치된 공간에서 상기 카메라에 의해 촬영된 상기 마커에 대한 교정 영상으로부터 도출된 상기 마커에 대한 2차원 좌표 정보, 상기 공간에 설치된 수신기로부터 측정된 상기 마커에 대한 3차원 좌표 정보 및 상기 카메라 내부 파라미터 정보에 기초하여 상기 카메라 외부 파라미터 정보를 도출하는 단계
를 더 포함하는 것인, 실감형 미디어 컨텐츠 제공 방법.
11. The method of claim 10,
Two-dimensional coordinate information for the marker derived from a calibration image for the marker photographed by the camera in a space in which at least one marker is installed, three-dimensional coordinate information for the marker measured from a receiver installed in the space, and the deriving the camera external parameter information based on the camera internal parameter information
The method further comprising a, immersive media content providing method.
제 10 항에 있어서,
상기 객체에 부착된 상기 트래커의 위치에 해당하는 좌표 정보에 상기 트래커의 자세에 대한 변환 행렬을 적용하여 상기 트래커가 부착된 상기 객체의 각 모서리의 꼭짓점에 대한 3차원 좌표 정보를 도출하는 단계
를 더 포함하는 것인, 실감형 미디어 컨텐츠 제공 방법.
11. The method of claim 10,
Deriving three-dimensional coordinate information for the vertices of each corner of the object to which the tracker is attached by applying a transformation matrix for the posture of the tracker to coordinate information corresponding to the position of the tracker attached to the object
The method further comprising a, immersive media content providing method.
제 12 항에 있어서,
상기 학습용 영상 내 상기 객체에 대한 2차원 좌표 정보를 도출하는 단계는,
상기 객체의 위치 변동 또는 자세 변동에 따라 촬영된 상기 객체에 대한 학습용 영상 내 상기 객체의 각 모서리의 꼭짓점에 대한 2차원 좌표 정보를 도출하는 단계를 포함하고,
상기 학습 데이터를 생성하는 단계는,
상기 객체의 위치 변동 또는 자세 변동에 따라 변경되는 상기 학습용 영상 및 상기 객체의 각 모서리의 꼭짓점에 대한 2차원 좌표 정보를 매핑하여 상기 학습 데이터를 생성하는 단계를 포함하는 것인, 실감형 미디어 컨텐츠 제공 방법.
13. The method of claim 12,
The step of deriving the two-dimensional coordinate information for the object in the learning image,
Including the step of deriving two-dimensional coordinate information about the vertices of each corner of the object in the learning image for the object taken according to the change in the position or posture of the object,
The step of generating the learning data is,
Providing immersive media content, comprising the step of generating the learning data by mapping two-dimensional coordinate information on the vertices of each corner of the object and the training image that is changed according to a change in position or posture of the object method.
제 13 항에 있어서,
상기 추적 모델을 학습시키는 단계는,
상기 학습용 영상을 상기 추적 모델에 입력하여 상기 학습용 영상에 매핑된 상기 객체의 각 모서리의 꼭짓점에 대한 2차원 좌표 정보가 출력하도록 하는 상기 추적 모델을 학습시키는 단계를 포함하는 것인, 실감형 미디어 컨텐츠 제공 방법.
14. The method of claim 13,
The step of training the tracking model is,
The step of inputting the training image into the tracking model and learning the tracking model to output two-dimensional coordinate information for vertices of each corner of the object mapped to the training image by inputting the training image into the tracking model; How to provide.
제 9 항에 있어서,
상기 움직이는 객체에 대한 2차원 좌표 정보를 추적하는 단계는,
상기 학습된 추적 모델을 통해 상기 움직이는 객체에 대한 촬영 영상으로부터 상기 객체의 각 모서리의 꼭짓점에 대한 2차원 좌표 정보를 추적하는 단계를 포함하는 것인, 실감형 미디어 컨텐츠 제공 방법.
10. The method of claim 9,
The step of tracking the two-dimensional coordinate information for the moving object,
The method of providing immersive media content, comprising the step of tracking two-dimensional coordinate information for vertices of each corner of the object from the captured image of the moving object through the learned tracking model.
제 9 항에 있어서,
상기 추적 모델은 형태가 서로 다른 객체마다 생성되는 것인, 실감형 미디어 컨텐츠 제공 방법.
10. The method of claim 9,
The method for providing immersive media content, wherein the tracking model is generated for each object having a different shape.
실감형 미디어 컨텐츠 제공 서버에 의해 수행되는 실감형 미디어 컨텐츠를 제공하는 명령어들의 시퀀스를 포함하는 컴퓨터 판독가능 기록매체에 저장된 컴퓨터 프로그램에 있어서,
상기 컴퓨터 프로그램은 컴퓨팅 장치에 의해 실행될 경우,
트래커가 부착된 객체에 대한 학습용 영상 및 상기 학습용 영상 내 상기 객체에 대한 2차원 좌표 정보에 기초하여 학습 데이터를 생성하고,
상기 생성된 학습 데이터에 기초하여 추적 모델을 학습시키고,
상기 실감형 미디어 컨텐츠 제공 서버와 연동하는 프로젝터를 통해 실감형 미디어 컨텐츠를 출력하여 객체 상에 투영시키고,
상기 객체가 움직이는 경우, 상기 학습된 추적 모델을 통해 상기 움직이는 객체에 대한 2차원 좌표 정보를 추적하고,
상기 추적된 객체에 대한 2차원 좌표 정보에 기초하여 상기 실감형 미디어 컨텐츠를 조정하고,
상기 프로젝터를 통해 상기 조정된 실감형 미디어 컨텐츠를 출력하여 상기 객체 상에 투영시키는 명령어들의 시퀀스를 포함하는, 컴퓨터 판독가능 기록매체에 저장된 컴퓨터 프로그램.
A computer program stored in a computer-readable recording medium comprising a sequence of instructions for providing immersive media content, which is executed by a immersive media content providing server, comprising:
When the computer program is executed by a computing device,
To generate training data based on the two-dimensional coordinate information for the object in the training image and the training image for the object to which the tracker is attached,
Train a tracking model based on the generated training data,
Output the immersive media content through a projector that interworks with the immersive media content providing server and project it onto an object,
When the object moves, tracking two-dimensional coordinate information about the moving object through the learned tracking model,
Adjust the immersive media content based on the two-dimensional coordinate information for the tracked object,
and a sequence of instructions for outputting the adjusted immersive media content through the projector and projecting it onto the object.
KR1020200100650A 2020-08-11 2020-08-11 Server, method and computer program for prividing real-life type media contents KR20220020103A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200100650A KR20220020103A (en) 2020-08-11 2020-08-11 Server, method and computer program for prividing real-life type media contents

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200100650A KR20220020103A (en) 2020-08-11 2020-08-11 Server, method and computer program for prividing real-life type media contents

Publications (1)

Publication Number Publication Date
KR20220020103A true KR20220020103A (en) 2022-02-18

Family

ID=80495366

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200100650A KR20220020103A (en) 2020-08-11 2020-08-11 Server, method and computer program for prividing real-life type media contents

Country Status (1)

Country Link
KR (1) KR20220020103A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003500766A (en) 1999-05-25 2003-01-07 スティーヴン ディー. バーンヒル、 Augmenting knowledge discovery from multiple datasets using multiple support vector machines

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003500766A (en) 1999-05-25 2003-01-07 スティーヴン ディー. バーンヒル、 Augmenting knowledge discovery from multiple datasets using multiple support vector machines

Similar Documents

Publication Publication Date Title
US10984554B2 (en) Monocular vision tracking method, apparatus and non-volatile computer-readable storage medium
JP6622395B2 (en) Method and apparatus for adjusting virtual reality images
US20160358382A1 (en) Augmented Reality Using 3D Depth Sensor and 3D Projection
US20230245391A1 (en) 3d model reconstruction and scale estimation
CN103607584A (en) Real-time registration method for depth maps shot by kinect and video shot by color camera
US20220067974A1 (en) Cloud-Based Camera Calibration
JP2015142383A (en) Range calibration of binocular optical augmented reality system
US20170374256A1 (en) Method and apparatus for rolling shutter compensation
US10769811B2 (en) Space coordinate converting server and method thereof
Lan et al. Development of a virtual reality teleconference system using distributed depth sensors
CN113643342A (en) Image processing method and device, electronic equipment and storage medium
WO2020048461A1 (en) Three-dimensional stereoscopic display method, terminal device and storage medium
US20230306636A1 (en) Object three-dimensional localizations in images or videos
JP7334516B2 (en) Three-dimensional shape model generation device, three-dimensional shape model generation method, and program
Bapat et al. Rolling shutter and radial distortion are features for high frame rate multi-camera tracking
KR20220020103A (en) Server, method and computer program for prividing real-life type media contents
TW202037151A (en) Image processing system and image processing method
JP2014178124A (en) Three-dimensional measurement system, program and method
KR20150040194A (en) Apparatus and method for displaying hologram using pupil track based on hybrid camera
WO2020255766A1 (en) Information processing device, information processing method, program, projection device, and information processing system
JP2019114131A (en) Program, apparatus, and method for correcting depth value in time series depth image
CN108933939A (en) Method and apparatus for determining the characteristic of display equipment
WO2020166352A1 (en) Information processing device, information processing method, and program
KR20170009809A (en) An imaging photographing device and an imaging photographing method using an video editing
WO2020080101A1 (en) Video processing device, video processing method, and video processing program