KR20200007732A - 원격지 또는 클라우드 환경에서 미디어를 처리하기 위한 부가 정보 제공 방법 및 장치 - Google Patents

원격지 또는 클라우드 환경에서 미디어를 처리하기 위한 부가 정보 제공 방법 및 장치 Download PDF

Info

Publication number
KR20200007732A
KR20200007732A KR1020190084580A KR20190084580A KR20200007732A KR 20200007732 A KR20200007732 A KR 20200007732A KR 1020190084580 A KR1020190084580 A KR 1020190084580A KR 20190084580 A KR20190084580 A KR 20190084580A KR 20200007732 A KR20200007732 A KR 20200007732A
Authority
KR
South Korea
Prior art keywords
information
media
present
media data
processing
Prior art date
Application number
KR1020190084580A
Other languages
English (en)
Inventor
임성용
서정일
이희경
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Publication of KR20200007732A publication Critical patent/KR20200007732A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

미디어 데이터의 부가 정보 제공 방법 및 장치가 제공된다. 본 개시의 부가 정보 제공 방법은 미디어 데이터를 입력받는 단계, 상기 미디어 데이터 내의 소정의 영역에 대한 정보를 획득하는 단계 및 상기 획득된 정보를 이용하여 상기 미디어 데이터를 처리하는 단계를 포함하고, 상기 정보는 상기 소정의 영역을 지시하는 사각형 형태의 바운딩 영역 정보, 마스크 정보 및 거리 정보 중 적어도 하나를 포함한다.

Description

원격지 또는 클라우드 환경에서 미디어를 처리하기 위한 부가 정보 제공 방법 및 장치{METHOD AND APPARATUS FOR PROVIDING ADDITIONAL INFORMATION FOR PROCESSING MEDIA IN A REMOTE OR CLOUD ENVIRONMENT}
본 발명은 원격지 또는 클라우드 환경에서 미디어를 처리하기 위한 부가 정보 제공 방법 및 장치에 관한 것이다. 구체적으로, NBMP(Network-Based Media Processing)을 기반으로 미디어를 처리하기 위한 부가 정보를 제공하는 방법 및 장치에 관한 것이다.
최근 네트워크 상에서 미디어 데이터를 보다 효율적으로 처리하기 위한 다양한 연구가 진행되고 있다.
현실 세계를 다양한 센서를 활용하여 미디어 파일, 즉 오디오, 비디오 등의 디지털 형태로 획득할 수 있다. 이때, 미디어 입력은 MPEG 등 표준화 단체에서 정의한 기존 형식을 따를 수 있다.
본 발명은, 원격지 또는 클라우드 환경에서 미디어를 처리하는 방법 및 장치를 제공하는 것을 목적으로 한다.
본 발명은, NBMP 기반으로 미디어를 처리하기 위한 부가 정보를 제공하는 방법 및 장치를 제공하는 것을 목적으로 한다.
미디어 데이터를 입력받는 단계; 상기 미디어 데이터 내의 소정의 영역에 대한 정보를 획득하는 단계; 및 상기 획득된 정보를 이용하여 상기 미디어 데이터를 처리하는 단계를 포함하고, 상기 정보는 상기 소정의 영역을 지시하는 사각형 형태의 바운딩 영역 정보, 마스크 정보 및 거리 정보 중 적어도 하나를 포함하는 미디어 데이터의 부가 정보 제공 방법이 제공될 수 있다.
본 개시에 대하여 위에서 간략하게 요약된 특징들은 후술하는 본 개시의 상세한 설명의 예시적인 양상일 뿐이며, 본 개시의 범위를 제한하는 것은 아니다.
본 발명에 따르면, 원격지 또는 클라우드 환경에서 미디어를 처리하는 방법 및 장치가 제공될 수 있다.
또한, 본 발명에 따르면, NBMP 기반으로 미디어를 처리하기 위한 부가 정보를 제공하는 방법 및 장치가 제공될 수 있다.
본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 일 실시예에 따른 미디어 처리 앤티티를 사용하는 NBMP 애플리케이션의 콘텐츠 처리 과정을 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 종래의 미디어 입력 형식과 추가 정보의 인터페이스를 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 따른 미디어 데이터 소스 및 미디어 데이터 소스들간의 NBMP 메타데이터의 구조를 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 미디어 처리부에 대한 추가 메타데이터 구조를 설명하기 위한 도면이다.
도 5는 본 발명의 미디어 처리 과정에서 중요 정보를 포함한 영상의 일 예를 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따른 NBMP 기반의 미디어 데이터 처리 과정을 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에 따른 미디어 데이터 처리 과정을 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시예에 따른 OMAF 구조를 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시예에 따른 미디어 데이터 처리를 위해 제공되는 정보를 설명하기 위한 도면이다.
도 10은 본 발명의 일 실시예에 따른 미디어 관계 정보를 설명하기 위한 도면이다.
도 11은 본 발명의 일 실시예에 따른 데이터 처리 관계 정보를 설명하기 위한 도면이다.
도 12는 본 발명의 일 실시예에 따른 NBMP와 XML 구조를 설명하기 위한 도면이다.
도 13 및 도 14는 본 발명의 일 실시예에 따른 비디오 코드변환 애플리케이션의 동작을 설명하기 위한 도면이다.
도 15는 본 발명의 일 실시예에 따른 클라우드 서비스의 동작을 설명하기 위한 도면이다.
도 16은 본 발명의 일 실시예에 따른 미디어 데이터에서 보존 영역을 설명하기 위한 도면이다.
도 17은 본 발명의 일 실시예에 따른 보존 영역을 대한 처리를 설명하기 위한 도면이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다. 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다. 후술하는 예시적 실시예들에 대한 상세한 설명은, 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 실시예를 실시할 수 있기에 충분하도록 상세히 설명된다. 다양한 실시예들은 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 실시예의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 예시적 실시예들의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다.
본 발명에서 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
본 발명의 어떤 구성 요소가 다른 구성 요소에 “연결되어” 있다거나 “접속되어” 있다고 언급된 때에는, 그 다른 구성 요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있으나, 중간에 다른 구성 요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다거나 "직접 접속되어"있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
본 발명의 실시예에 나타나는 구성부들은 서로 다른 특징적인 기능들을 나타내기 위해 독립적으로 도시되는 것으로, 각 구성부들이 분리된 하드웨어나 하나의 소프트웨어 구성단위로 이루어짐을 의미하지 않는다. 즉, 각 구성부는 설명의 편의상 각각의 구성부로 나열하여 포함한 것으로 각 구성부 중 적어도 두 개의 구성부가 합쳐져 하나의 구성부로 이루어지거나, 하나의 구성부가 복수 개의 구성부로 나뉘어져 기능을 수행할 수 있고 이러한 각 구성부의 통합된 실시예 및 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리범위에 포함된다.
본 발명에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 발명에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 즉, 본 발명에서 특정 구성을 “포함”한다고 기술하는 내용은 해당 구성 이외의 구성을 배제하는 것이 아니며, 추가적인 구성이 본 발명의 실시 또는 본 발명의 기술적 사상의 범위에 포함될 수 있음을 의미한다.
본 발명의 일부의 구성 요소는 본 발명에서 본질적인 기능을 수행하는 필수적인 구성 요소는 아니고 단지 성능을 향상시키기 위한 선택적 구성 요소일 수 있다. 본 발명은 단지 성능 향상을 위해 사용되는 구성 요소를 제외한 본 발명의 본질을 구현하는데 필수적인 구성부만을 포함하여 구현될 수 있고, 단지 성능 향상을 위해 사용되는 선택적 구성 요소를 제외한 필수 구성 요소만을 포함한 구조도 본 발명의 권리범위에 포함된다.
이하, 도면을 참조하여 본 발명의 실시 형태에 대하여 구체적으로 설명한다. 본 명세서의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 명세서의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략하고, 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.
본 개시에 따를 때, 원격지 혹은 클라우드 환경에서 비디오, 오디오와 같은 미디어 데이터를 처리하기 위한 부가정보를 정의하고 전달하는 방법과 이를 활용한 미디어 처리 장치가 제공될 수 있다.
본 개시의 방법 및 장치는 NBMP(Network-Based Media Processing)을 기반으로 미디어를 처리하기 위한 부가 정보를 제공할 수 있다.
이하에서는, NBMP의 전체적인 동작에 대해 후술한다.
도 1은 본 발명의 일 실시예에 따른 미디어 처리 앤티티를 사용하는 NBMP 애플리케이션의 콘텐츠 처리 과정을 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 종래의 미디어 입력 형식과 추가 정보의 인터페이스를 설명하기 위한 도면이다.
도 2를 참조하면, 현실 세계를 다양한 센서를 활용하여 미디어 파일, 즉 오디오, 비디오 등의 디지털 형태로 획득 하는 과정에서 종래의 미디어 입력은 MPEG 등 표준화 단체에서 정의한 기존 형식을 따를 수 있다. 한편, 원격지 혹은 클라우드에서 존재하는 미디어 처리부(Media Processing)는 성능, 품질 등의 향상을 위해 부가 정보는 별도로 수신할 수 있다. 또한, 미디어 처리부는 최종 미디어 처리 결과를 이용하여 다시 종래의 미디어 형식으로 변환할 수 있다. 상기 미디어 처리부는 미디어 처리 장치를 의미할 수 있으며, 상기 미디어 처리부의 동작은 미디어 처리 방법을 의미할 수 있다.
다양한 유형의 센서는 실제 시청각 정보를 수집할 수 있다. 상기 수집 결과는 레거시(legacy) MPEG 미디어 포맷으로 전달될 수 있다. 상기 시청각 정보 이외에, NBMP는 복수의 미디어 처리 엔티티에 대해 보조 시간 및 비-시간의 메타데이터를 정의할 수 있다. NBMP 메타데이터는 별도의 파일 또는 병합된 파일로 전송될 수 있다. 상기 미디어 처리 엔티티는 레거시 MPEG 미디어 포맷을 출력할 수 있다.
이하에서는, 미디어 데이터 소스에 대한 메타데이터에 대해서 후술한다.
본 개시에 따를 때, 미디어 데이터 소스 및/또는 미디어 데이터 소스들간의 메타데이터를 지정할 수 있다. 본 개시의 메타데이터는 ISOBMFF[X]의 기존 미디어 정보에 기초할 수 있고, 새로운 요소는 미디어 데이터들간의 광학 정보 및/또는 관계 정보를 포함할 수 있다.
도 3은 본 발명의 일 실시예에 따른 미디어 데이터 소스 및 미디어 데이터 소스들간의 NBMP 메타데이터의 구조를 설명하기 위한 도면이다.
도 3을 참조하면, 본 개시의 메타데이터는 단일 매체 정보 및/또는 다중 매체 관계 정보를 포함할 수 있다.
여기서, 단일 매체 정보는 비디오 정보, 오디오 정보, 광학 정보 등을 포함할 수 있다. 또한, 다중 매체 정보는 좌표 정보, 자세 정보 등을 포함할 수 있다.
이하에서는, 시각적 미디어 데이터의 좌표 정보에 대해서 후술한다.
본 개시의 방법 및 장치는 다양한 센서 유형의 시각적 미디어 데이터의 좌표계를 지정할 수 있다. 예를 들어, 센서로부터 획득한 정보는 축의 순서 및/또는 방향에 따라서 정보 교환 과정에서 오인될 소지가 있기 때문에, Right handed y-down, Left handed y-up, Right handed y-up, Left handed z-up, Right handed z-up 으로 명시하여 상기 정보가 전달될 수 있다.
표 1은 일 실시예에 따른 미디어 데이터의 좌표 정보를 나타내기 위한 구문 요소(syntax element) 정보이다.
aligned(8) class CoordinateSystem() {
string coord_axes;
}
표 1에서, coord_axes는 직교축 순서 및/또는 방향을 의미할 수 있다 (즉, Right handed y-down, Left handed y-up, Right handed y-up, Left handed z-up Right handed z-up). 상기 coord_axes는 시각 센서가 캡쳐하는 동안 축 구성을 지정하고 Cartesian 정보를 출력할 수 있다.
이하에서는, 시각적 미디어 데이터의 광학 정보에 대해서 후술한다.
본 개시의 방법 및 장치는 영상 정보가 기록된 디지털 영상 정보의 광학 특성을 전달할 수 있다. 구체적으로, 실제 장면을 캡쳐할 때 수평 시야 및/또는 수직 시야를 제공하는 시각적 미디어 데이터의 광학 정보를 지정할 수 있다.
표 2는 일 실시예에 따른 미디어 데이터의 광학 정보를 나타내기 위한 구문 요소(syntax element) 정보이다.
aligned(8) class OpticInformation() {
signed int(32) hfov;
signed int(32) vfov;
signed int(32) lensParameters;
}
표 2에서, hfov는 수평축 획득 시야각을 의미할 수 있고, vfov는 수직축 획득 시야각을 의미할 수 있고, lensParameter는 직선 투영(rectilinear projection)으로부터의 편차를 설명하는 광학 왜곡 계수를 의미할 수 있으며, rectilinear와 비교하여 왜곡된 정도를 파라미터로 전달할 수 있다.
이하에서는, 자세 메타데이터(pose metadata)에 대해서 후술한다.
자세 메타데이터는 디지털 영상 정보의 기하학적 관계 정보를 의미할 수 있다.
본 개시의 메타데이터는 센서 보정에 대한 입력 추정값을 제공하는데 이용될 수 있다. 또한, 메타데이터는 센서 보정에서 보정된 특성을 저장하는데 이용될 수 있다. 또한, 메타데이터는 비디오 미디어 처리를 위해 기하학적 자세를 입력하는데 이용될 수 있다.
본 개시의 메타데이터는 국소(local) 좌표축을 전역(global) 좌표축으로 변환하기 위해 적용되어야 하는 회전의 요(yaw), 피치(pitch), 롤(roll) 각도와 같은 회전 정보를 각각 제공할 수 있다. 스테레오스코픽 전방향 비디오의 경우, 필드가 각 뷰(view)에 개별적으로 적용될 수 있다.
또한, 본 개시의 메타데이터는 변환 정보를 데카르트 좌표의 벡터로서 기술할 수 있다.
정보간의 기하학적 관계는 회전 정보 및/또는 이동 정보로 표현할 수 있으며, 회전 정보는 상대적인 회전각을, 이동 정보는 상대적인 이동 거리를 각각 기술하여 전달할 수 있다.
표 3은 일 실시예에 따른 미디어 데이터의 자세 정보를 나타내기 위한 구문 요소(syntax element) 정보이다.
aligned(8) class RotationStruct() {
signed int(32) rotation_yaw;
signed int(32) rotation_pitch;
signed int(32) rotation_roll;
}
aligned(8) class TlanslationStruct() {
signed int(32) x_cm;
signed int(32) y_cm;
signed int(32) z_cm;
}
표 3에서, rotation_yaw, rotation_pitch, rotation_roll은 각각 로컬 좌표축을, 전역 좌표축에 대해 2-16도 단위 기준으로, 전역 좌표축으로 변환하기 위해 단위 구(sphere)에 적용되는 yaw, pitch, roll 각도를 지정할 수 있다
rotation_yaw는 -180 x 216부터 180 x 216 - 1의 범위이고, rotation_pitch는 -90 x 216부터 90 x 216 - 1의 범위이고, rotation_roll은 -180 x 216부터 180 x 216 - 1의 범위일 수 있다.
x_cm, y_cm, z_cm는 지정된 cord_axes에서 중앙으로부터 센서의 X, Y, Z 이동(transition) 오프셋을 지정할 수 있다. 또한, x_cm, y_cm, z_cm는 변환 옵션이 있는 카메라 보정에 사용될 수 있으며, 사용될 수 없는 경우 보정에 대한 입력 추정치로 0,0,0이 지정될 수 있다.
이하에서는, 미디어 처리부에 대한 보충(supplemental) 메타데이터에 대해서 후술한다.
도 4는 본 발명의 일 실시예에 따른 미디어 처리부에 대한 추가 메타데이터 구조를 설명하기 위한 도면이다.
미디어 처리부에서 최종 처리 결과를 기존 영상 파일 규격으로 출력하기를 요청하는 경우, 미디어 입력부는 해당 영상 파일 규격의 파일을 구성하여 미디어 처리부에 전달하고 미디어 처리부는 이 파일 정보를 바탕으로 미디어 처리를 수행한 후 결과 미디어를 해당 파일에 추가하여 최종 출력할 수 있다. 예를 들어, MPEG-OMAF 파일 형태로 최종 출력을 요청하는 경우, 미디어 입력부는 projectionFormat, regionWisePacking, recommendedViewport, initialViewpoint 등 OMAF에서 포함하고 있는 정보를 구성하고, 미디어 처리부는 이 정보에 따라 미디어 처리를 수행한 후 최종 OMAF 파일을 출력할 수 있다.
이하에서는, 3DoF 미디어 처리부에 대한 메타데이터에 대해서 후술한다.
본 개시에 따르면, 다수의 프로젝션 도메인에서의 비디오 스티칭과 같은 3DoF 미디어 처리에 대한 보충 메타데이터가 제공될 수 있다.
본 개시에 따를 때, 다수의 영상 정보를 하나의 영상으로 처리하기 위한 미디어 처리 과정에서 사람의 머리, 형태가 뚜렷한 객체 등 왜곡 손실로부터 유지되어야 하는 영역의 경우, 미디어 처리 과정에서 이를 고려할 수 있도록 상기 영역에 대한 정보가 제공될 수 있다.
도 5는 본 발명의 미디어 처리 과정에서 중요 정보를 포함한 영상의 일 예를 설명하기 위한 도면이다.
도 5를 참조하면, 사람의 얼굴 영역은 중요 정보일 수 있다. 상기 영역이 미디어 영상 처리 과정에서 왜곡될 수 있기 때문에, 상기 영역에 대해 사각형, 0과 1로 구성된 영상마스크, 혹은 거리 정보까지 포함된 깊이(depth) 영상이 제공될 수 있다. 따라서, 중요 정보가 포함되어 있음을 전달함으로써 미디어 처리 과정에서 왜곡이 발생하지 않도록 할 수 있다.
표 4는 일 실시예에 따른 미디어 데이터의 보충 정보를 나타내기 위한 구문 요소(syntax element) 정보이다.
aligned(8) class preservedRegion() {
RectangleStruct rectangleRegion;
string imageMask;
string depthImage;
}
표 4에서, preservedRegion은 미디어 처리과정에서 보전되어야 하는 미디어 데이터의 관심 영역을 지정할 수 있다. 예를 들어, preservedRegion은 원본 유지가 요청되는 영역에 대한 정보를 사각형 형태(rectangleRegion)의 바운딩 영역, 0과 1로 구성된 이미지 마스크(imageMask) 혹은 거리정보가 포함된 depth 영상(depthImage)의 형태로 전달할 수 있다.
도 6은 본 발명의 일 실시예에 따른 NBMP 기반의 미디어 데이터 처리 과정을 설명하기 위한 도면이다.
도 6을 참조하면, 추상화된 모델(abstract model)은 미디어 소스, 미디어 처리, 미디어 싱크(sink)로 구성될 수 있다.
미디어 소스에 대응되는 레퍼런스 플랫폼(reference platform)은 콘텐츠 서버(content server)일 수 있다. 미디어 처리에 대응되는 레퍼런스 플랫폼은 클라우드/원 서버(cloud/origin server) 및/또는 MEC, edge CDN 등을 수 있다. 미디어 싱크에 대응되는 레퍼런스 플랫폼은 사용자 디바이스일 수 있다.
도 7은 본 발명의 일 실시예에 따른 미디어 데이터 처리 과정을 설명하기 위한 도면이다.
도 7을 참조하면, 미디어 처리부는 NBMP Timed, Non-Timed 메타데이터를 수신할 수 있다. 또한, 미디어 처리부는 MPEG 미디어 포맷 정보를 수신할 수 있다.
미디어 처리부는 상기 수신된 정보를 이용하여 MPEG 미디어 포맷 형태의 미디어 데이터를 출력할 수 있다.
도 8은 본 발명의 일 실시예에 따른 OMAF 구조를 설명하기 위한 도면이다.
도 8을 참조하면, ISOBMFF, DASH, MMT에서 저장, 전송되는 전방향 미디어 데이터에 대해 기술되어 있다. 또한, NBMP에 대한 논리적 데이터 모델에 대해 기술 되어 있다.
도 9는 본 발명의 일 실시예에 따른 미디어 데이터 처리를 위해 제공되는 정보를 설명하기 위한 도면이다.
도 9를 참조하면, 본 개시의 부가 정보 제공 방법 및 장치는 미디어 데이터 처리를 위해 레거시 미디어 정보, 다중 미디어 관계 정보, 미디어 처리를 위한 부가 정보 등을 포함할 수 있다.
도 10은 본 발명의 일 실시예에 따른 미디어 관계 정보를 설명하기 위한 도면이다.
도 10을 참조하면, 레거시 미디어 정보는 비디오, 오디오, 광학 정보 등을 포함할 수 있다. 다중 미디어 관계 정보는 좌표 정보, 포즈 정보 등을 포함할 수 있다.
도 11은 본 발명의 일 실시예에 따른 데이터 처리 관계 정보를 설명하기 위한 도면이다.
도 11을 참조하면, 미디어 처리를 위한 부가 정보는 3DoF, 3DoF+, 6Dof, 2D 정보 등을 포함할 수 있다.
도 12는 본 발명의 일 실시예에 따른 NBMP와 XML 구조를 설명하기 위한 도면이다.
도 13 및 도 14는 본 발명의 일 실시예에 따른 비디오 코드변환 애플리케이션의 동작을 설명하기 위한 도면이다.
도 15는 본 발명의 일 실시예에 따른 클라우드 서비스의 동작을 설명하기 위한 도면이다.
도 16은 본 발명의 일 실시예에 따른 미디어 데이터에서 보존 영역을 설명하기 위한 도면이다.
예를 들어, 보존 영역의 사람의 얼굴, 몸통, 소정의 객체 등일 수 있으며, 도 16을 참조하면 보존 영역은 사람의 얼굴 부분에 해당될 수 있다.
도 17은 본 발명의 일 실시예에 따른 보존 영역을 대한 처리를 설명하기 위한 도면이다.
도 17을 참조하면, 사람의 얼굴 부분을 보존 영역이라 하고, 상기 보존 영역에 대한 Rectangle Type 정보, RegionMask 정보, DepthMask 정보 등이 제공될 수 있다.
상술한 실시예들에서, 방법들은 일련의 단계 또는 유닛으로서 순서도를 기초로 설명되고 있으나, 본 발명은 단계들의 순서에 한정되는 것은 아니며, 어떤 단계는 상술한 바와 다른 단계와 다른 순서로 또는 동시에 발생할 수 있다. 또한, 당해 기술 분야에서 통상의 지식을 가진 자라면 순서도에 나타난 단계들이 배타적이지 않고, 다른 단계가 포함되거나, 순서도의 하나 또는 그 이상의 단계가 본 발명의 범위에 영향을 미치지 않고 삭제될 수 있음을 이해할 수 있을 것이다.
상술한 실시예는 다양한 양태의 예시들을 포함한다. 다양한 양태들을 나타내기 위한 모든 가능한 조합을 기술할 수는 없지만, 해당 기술 분야의 통상의 지식을 가진 자는 다른 조합이 가능함을 인식할 수 있을 것이다. 따라서, 본 발명은 이하의 특허청구범위 내에 속하는 모든 다른 교체, 수정 및 변경을 포함한다고 할 것이다.
이상 설명된 본 발명에 따른 실시예들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다.

Claims (1)

  1. 미디어 데이터를 입력받는 단계;
    상기 미디어 데이터 내의 소정의 영역에 대한 정보를 획득하는 단계; 및
    상기 획득된 정보를 이용하여 상기 미디어 데이터를 처리하는 단계를 포함하고,
    상기 정보는 상기 소정의 영역을 지시하는 사각형 형태의 바운딩 영역 정보, 마스크 정보 및 거리 정보 중 적어도 하나를 포함하는 미디어 데이터의 부가 정보 제공 방법.
KR1020190084580A 2018-07-13 2019-07-12 원격지 또는 클라우드 환경에서 미디어를 처리하기 위한 부가 정보 제공 방법 및 장치 KR20200007732A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20180081687 2018-07-13
KR1020180081687 2018-07-13

Publications (1)

Publication Number Publication Date
KR20200007732A true KR20200007732A (ko) 2020-01-22

Family

ID=69368283

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190084580A KR20200007732A (ko) 2018-07-13 2019-07-12 원격지 또는 클라우드 환경에서 미디어를 처리하기 위한 부가 정보 제공 방법 및 장치

Country Status (1)

Country Link
KR (1) KR20200007732A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220101657A (ko) * 2020-10-05 2022-07-19 텐센트 아메리카 엘엘씨 클라우드 서비스를 위한 방법 및 장치

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220101657A (ko) * 2020-10-05 2022-07-19 텐센트 아메리카 엘엘씨 클라우드 서비스를 위한 방법 및 장치

Similar Documents

Publication Publication Date Title
US11715269B1 (en) Systems and methods for presenting digital assets within artificial environments via a loosely coupled relocalization service and asset management service
US9846960B2 (en) Automated camera array calibration
US11288864B2 (en) Methods and systems for producing content in multiple reality environments
WO2019179168A1 (zh) 投影畸变校正方法、装置、系统及存储介质
US20210274358A1 (en) Method, apparatus and computer program for performing three dimensional radio model construction
US9361731B2 (en) Method and apparatus for displaying video on 3D map
Barandiaran et al. Real-time optical markerless tracking for augmented reality applications
US11748955B2 (en) Network-based spatial computing for extended reality (XR) applications
US20140016820A1 (en) Distributed object tracking for augmented reality application
CN104486584A (zh) 一种基于增强现实的城市视频地图方法
WO2018216341A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US11288842B2 (en) Method and system for re-projecting and combining sensor data for visualization
KR20200007732A (ko) 원격지 또는 클라우드 환경에서 미디어를 처리하기 위한 부가 정보 제공 방법 및 장치
Duchowski et al. Using pose estimation to map gaze to detected fiducial markers
JP6086491B2 (ja) 画像処理装置およびそのデータベース構築装置
Zheng et al. Research on panoramic stereo live streaming based on the virtual reality
Gül et al. Latency compensation through image warping for remote rendering-based volumetric video streaming
US10692286B2 (en) Device and method of creating an augmented interactive virtual reality system
KR101926459B1 (ko) 가상현실 이미지 처리방법 및 그 장치
US12008771B2 (en) Device and method of creating an augmented interactive virtual reality system
KR101640948B1 (ko) 시청자 위치 정보를 이용한 파노라마 화면 제어 시스템 및 방법
CN112070175B (zh) 视觉里程计方法、装置、电子设备及存储介质
US20240029283A1 (en) Image depth prediction method, electronic device, and non-transitory storage medium
EP4303817A1 (en) A method and an apparatus for 360-degree immersive video
Liu et al. Research on the Application of UAV Wide-angle Shooting Technology in Multimedia Video Playing