KR102127212B1 - 다시점 영상 정보의 복호화 방법 및 장치 - Google Patents

다시점 영상 정보의 복호화 방법 및 장치 Download PDF

Info

Publication number
KR102127212B1
KR102127212B1 KR1020180160595A KR20180160595A KR102127212B1 KR 102127212 B1 KR102127212 B1 KR 102127212B1 KR 1020180160595 A KR1020180160595 A KR 1020180160595A KR 20180160595 A KR20180160595 A KR 20180160595A KR 102127212 B1 KR102127212 B1 KR 102127212B1
Authority
KR
South Korea
Prior art keywords
information
image
images
motion estimation
image data
Prior art date
Application number
KR1020180160595A
Other languages
English (en)
Other versions
KR20200072705A (ko
Inventor
조용범
이기승
Original Assignee
건국대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 건국대학교 산학협력단 filed Critical 건국대학교 산학협력단
Priority to KR1020180160595A priority Critical patent/KR102127212B1/ko
Priority to PCT/KR2018/016934 priority patent/WO2020122308A1/ko
Priority to US16/711,941 priority patent/US11132819B2/en
Publication of KR20200072705A publication Critical patent/KR20200072705A/ko
Application granted granted Critical
Publication of KR102127212B1 publication Critical patent/KR102127212B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/179Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scene or a shot
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

다시점 영상 정보의 복호화 방법에 관한 것으로, 다시점 영상 정보의 복호화 방법은 복수의 카메라에 의해 촬영된 복수의 영상의 영상 데이터에 관한 비트 스트림(bit stream)을 수신하는 단계, 상기 비트 스트림에 포함된 영상 데이터로부터 복수의 영상의 영상 프레임 내의 블록의 뎁스 정보를 추출하여 제1정보를 생성하는 단계, 복수의 영상의 영상 프레임 간의 동일한 모션 추정이 발생하였는지 판단하여 제2정보를 생성하는 단계, 상기 복수의 영상의 영상 프레임 내의 블록의 픽셀 정보를 추출하여 제3정보를 생성하는 단계, 미리 훈련되어 생성된 다시점 영상 정보의 공간 보상(Disparity Compensation) 모델에 제1정보 내지 상기 제3정보를 입력하여, 복수의 영상의 영상 프레임 간의 블록 매칭을 수행하고 공간 보상을 수행하는 단계를 포함할 수 있다.

Description

다시점 영상 정보의 복호화 방법 및 장치{METHOD AND APPARATUS FOR DECODING MULTI-VIEW VIDEO INFORMATION}
본원은 다시점 영상 정보의 복호화 방법 및 장치에 관한 것이다.
제114차(2016년 2월) MPEG 표준화 회의에서 HEVC 표준에 확장 표준으로 MV-HEVC의 검증 테스트에 대해 독립적인 HEVC 코딩과 비교했을 때 30% 정도의 속도의 감소가 있음을 발표되었다.
멀티 뷰 (Multi-view) 비디오 코딩은 사용자가 다른 뷰로부터 비디오를 자유롭게 선택하도록 허용할 수 있다. 다중 뷰 비디오에 대한 가장 간단한 구조는 HEVC 확장인 다중 뷰 HEVC (MV-HEVC)이다.
도 3a을 참조하면, MV-HEVC는 HEVC와 달리 복수의 시퀀스의 정보를 가지고 있으므로 시간축의 모션 추정(Motion Estimation, ME)만 필요한 것이 아니라 공간축의 모션 추정(Disparity Estimation DE)이 필수적이다. 이 두 가지 예측을 통해 MV-HEVC는 보다 높은 압축 효율을 가지게 된다.
하지만 압축 효율을 높이는 대신 MV-HEVC는 실시간 복호화(Decoding) 처리가 어렵게 되었다. 특히 4개의 UHD급 영상을 디코딩할 경우 소비자 레벨의 컴퓨터에서는 불가능하다. 그 이유는 영상이 많이 유사할 경우 도 3b같이 모션 추정(Disparity Estimation DE)으로 처리된 데이터가 많기 때문이다. 프로파일링(Profiling)한 결과 모션 보상(Motion Compensation MC) 그리고 공간축의 보상(Disparity Compensation DC)은 MV-HEVC 복호기 90% 이상의 시간을 차지한다. 다중영상 뷰(view)가 많을수록 복호화 과정에서 공간축의 보상(Disparity Compensation DC)이 차지하는 영역이 더 많아진다. 이와 같은 이유로 공간축의 보상(Disparity Compensation DC)과정의 시간을 줄일 경우 MV-HEVC 복호기는 보다 좋은 성능을 가질 수 있다.
본원의 배경이 되는 기술은 한국등록특허공보 제10-1432779호에 개시되어 있다.
본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 공간축의 보상(Disparity Compensation DC)에서 시간 소비를 줄이기 위해 SVM학습 방법을 사용하여 MV-HEVC에 최적화된 방법을 제공하는 것을 목적으로 한다.
다만, 본원의 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들도 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
상기한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본원의 일 실시예에 따르면, 다시점 영상 정보의 복호화 방법은, 복수의 카메라에 의해 촬영된 복수의 영상의 영상 데이터에 관한 비트 스트림(bit stream)을 수신하는 단계, 상기 비트 스트림에 포함된 영상 데이터로부터 복수의 영상의 영상 프레임 내의 블록의 뎁스 정보를 추출하여 제1정보를 생성하는 단계, 복수의 영상의 영상 프레임 간의 동일한 모션 추정이 발생하였는지 판단하여 제2정보를 생성하는 단계, 상기 복수의 영상의 영상 프레임 내의 블록의 픽셀 정보를 추출하여 제3정보를 생성하는 단계 및 미리 훈련되어 생성된 다시점 영상 정보의 공간 보상(Disparity Compensation) 모델에 제1정보 내지 상기 제3정보를 입력하여, 복수의 영상의 영상 프레임 간의 블록 매칭을 수행하고 공간 보상을 수행하는 단계를 포함할 수 있다.
본원의 일 실시예에 따르면, 다시점 영상 정보의 복호화 방법은, 복수의 카메라에 의해 촬영된 복수의 영상의 영상 데이터로부터 복수의 영상의 영상 프레임 내의 블록의 뎁스 정보를 추출하여 뎁스 정보 유사도 값을 연산하는 단계, 복수의 영상의 영상 프레임 간의 동일한 모션 추정이 발생하였는지 판단하여 모션 추정값을 연산하는 단계, 복수의 영상의 영상 프레임 내의 블록의 픽셀 정보를 추출하여 픽셀 정보 유사도 값을 연산하는 단계 및 상기 뎁스 정보 유사도 값, 상기 모션 추정값 및 상기 픽셀 정보 유사도 값에 기초하여 머신 러닝 알고리즘을 이용하여 상기 미리 훈련된 다시점 영상 정보의 공간 보상 모델을 생성하는 단계를 더 포함할 수 있다.
본원의 일 실시예에 따르면, 상기 머신 러닝 알고리즘은 SVM(Support Vector Machine)을 포함할 수 있다.
본원의 일 실시예에 따르면, 상기 복수의 영상의 영상 프레임 내의 상기 뎁스 정보는 영상 프레임 내의 각 블록의 64x64부터 8x8까지의 CU(Coding Unit)의 크기 정보 또는 트리 구조에 관한 정보를 포함할 수 있다.
본원의 일 실시예에 따르면, 상기 복수의 영상의 영상 프레임 간의 동일한 모션 추정이 발생하였는지 판단하여 모션 추정값을 연산하는 단계는, 영상 프레임 간의 대응하는 블록의 예측 유닛(Prediction Unit)이 동일한 경우, 상기 영상 프레임 간의 동일한 모션 추정이 발생한 것으로 판단하여 미리 설정된 모션 추정값을 부여할 수 있다.
본원의 일 실시예에 따르면, 다시점 영상 정보의 복호화 방법은, 복수의 카메라에 의해 촬영된 복수의 영상의 영상 데이터로부터 복수의 영상의 영상 프레임 내의 블록의 뎁스 정보를 추출하여 뎁스 정보 유사도 값을 연산하는 단계, 복수의 영상의 영상 프레임 간의 동일한 모션 추정이 발생하였는지 판단하여 모션 추정값을 연산하는 단계, 복수의 영상의 영상 프레임 내의 블록의 픽셀 정보를 추출하여 픽셀 정보 유사도 값을 연산하는 단계, 상기 뎁스 정보 유사도 값, 상기 모션 추정값 및 상기 픽셀 정보 유사도 값에 기초하여 머신 러닝 알고리즘을 이용하여 미리 훈련된 다시점 영상 정보의 공간 보상 모델을 생성하는 단계 및 상기 다시점 영상 정보의 공간 보상 모델을 이용하여, 복수의 카메라에 의해 촬영되어 부호화된 영상 데이터를 복호화하는 단계를 포함할 수 있다.
본원의 일 실시예에 따르면, 상기 머신 러닝 알고리즘은 SVM(Support Vector Machine)을 포함할 수 있다.
본원의 일 실시예에 따르면, 상기 영상 데이터를 복호화하는 단계는, 복수의 카메라에 의해 촬영된 부호화된 영상 데이터에 관한 비트 스트림(bit stream)을 수신하는 단계, 상기 비트 스트림에 포함된 영상 데이터로부터 복수의 영상의 영상 프레임 내의 블록의 뎁스 정보를 추출하여 제1정보를 생성하는 단계, 복수의 영상의 영상 프레임 간의 동일한 모션 추정이 발생하였는지 판단하여 제2정보를 생성하는 단계, 상기 복수의 영상의 영상 프레임 내의 블록의 픽셀 정보를 추출하여 제3정보를 생성하는 단계 및 상기 다시점 영상 정보의 공간 보상 모델에 제1정보 내지 상기 제3정보를 입력하여, 복수의 영상의 영상 프레임 간의 블록 매칭을 수행하고 공간 보상을 수행하는 단계를 포함할 수 있다.
본원의 일 실시예에 따르면, 다시점 영상 정보의 복호화 장치는, 복수의 카메라에 의해 촬영된 복수의 영상의 영상 데이터에 관한 비트 스트림(bit stream)을 수신하는 수신부, 상기 비트 스트림에 포함된 영상 데이터로부터 복수의 영상의 영상 프레임 내의 블록의 뎁스 정보, 복수의 영상의 영상 프레임 간의 모션 추정에 관한 정보 및 상기 복수의 영상의 영상 프레임 내의 블록의 픽셀 정보를 포함하는 상기 비트 스트림의 특징 정보를 추출하는 특징 추출부 및 미리 훈련되어 생성된 다시점 영상 정보의 공간 보상(Disparity Compensation) 모델을 포함하며, 상기 공간 보상 모델에 상기 추출된 특징 정보를 입력하여 복수의 영상의 영상 프레임 간의 블록 매칭을 수행하고 공간 보상을 수행하는 복호화부를 포함할 수 있다.
본원의 일 실시예에 따르면, 상기 공간 보상 모델은, 복수의 카메라에 의해 촬영된 복수의 영상의 영상 데이터로부터 복수의 영상의 영상 프레임 내의 블록의 뎁스 정보를 추출하여 연산된 뎁스 정보 유사도 값, 복수의 영상의 영상 프레임 간의 동일한 모션 추정이 발생하였는지 판단하여 연산된 모션 추정값 및 복수의 영상의 영상 프레임 내의 블록의 픽셀 정보를 추출하여 연산된 픽셀 정보 유사도 값에 기초하여 머신 러닝 알고리즘을 이용하여 생성될 수 있다.
본원의 일 실시예에 따르면, 상기 특징 추출부는, 상기 비트 스트림에 포함된 영상 데이터로부터 복수의 영상의 영상 프레임 내의 블록의 뎁스 정보를 추출하여 제1정보를 생성하는 제1정보 추출부, 복수의 영상의 영상 프레임 간의 동일한 모션 추정이 발생하였는지 판단하여 제2정보를 생성하는 제2정보 추출부 및 상기 복수의 영상의 영상 프레임 내의 블록의 픽셀 정보를 추출하여 제3정보를 생성하는 제3정보 추출부를 포함할 수 있다.
본원의 일 실시예에 따르면, 상기 머신 러닝 알고리즘은 SVM(Support Vector Machine)을 포함할 수 있다.
상술한 과제 해결 수단은 단지 예시적인 것으로서, 본원을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 추가적인 실시예가 존재할 수 있다.
전술한 본원의 과제 해결 수단에 의하면, 공간축의 보상(Disparity Compensation DC)에서 시간 소비를 줄이기 위해 SVM학습 방법을 사용함으로써, MV-HEVC 복호기는 보다 좋은 성능을 가질 수 있다.
다만, 본원에서 얻을 수 있는 효과는 상기된 바와 같은 효과들로 한정되지 않으며, 또 다른 효과들이 존재할 수 있다.
도 1은 본원의 일 실시예에 따른 다시점 영상 정보의 복호화 시스템을 개략적으로 도시한 도면이다.
도 2는 본원의 일 실시예에 따른 다시점 영상 정보의 복호화 장치의 개략적인 블록도이다.
도 3a는 본원의 일 실시예에 따른 다시점 영상 정보의 복호화 장치의 MV-HEVC의 모션 추정을 설명하기 위한 도면이다.
도 3b는 본원의 일 실시예에 따른 다시점 영상 정보의 복호화 장치의 다시점 영상 코딩에서 프레임 간 예측 방법을 설명하기 위한 도면이다.
도 4는 본원의 일 실시예에 따른 다시점 영상 정보의 복호화 장치에서 제1정보의 생성을 설명하기 위한 도면이다.
도 5는 본원의 일 실시예에 따른 다시점 영상 정보의 복호화 장치에서 제2정보의 생성을 설명하기 위한 도면이다.
도 6a는 본원의 일 실시예에 따른 다시점 영상 정보의 복호화 장치의 훈련 과정을 개략적으로 도시한 도면이다.
도 6b는 본원의 일 실시예에 따른 다시점 영상 정보의 복호화 장치의 예측 과정을 개략적으로 도시한 도면이다.
도 7은 본원의 일 실시예에 따른 다시점 영상 정보의 복호화 방법의 흐름을 도시한 제1순서도이다.
도 8은 본원의 일 실시예에 따른 다시점 영상 정보의 복호화 방법의 흐름을 도시한 제2순서도이다.
아래에서는 첨부한 도면을 참조하여 본원이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본원의 실시예를 상세히 설명한다. 그러나 본원은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본원을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
본원 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다.
본원 명세서 전체에서, 어떤 부재가 다른 부재 "상에", "상부에", "상단에", "하에", "하부에", "하단에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.
본원 명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함" 한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.
도 3a는 본원의 일 실시예에 따른 다시점 영상 정보의 복호화 장치의 MV-HEVC의 모션 추정을 설명하기 위한 도면이고, 도 3b는 본원의 일 실시예에 따른 다시점 영상 정보의 복호화 장치 다시점 영상 코딩에서 프레임 간 예측 방법을 설명하기 위한 도면이다.
도 3a를 참조하면, 다시점 영상 정보는 한 대 이상의 카메라를 통해 촬영된 영상들을 기하학적으로 교정하고 공간적인 합성 등을 통하여 여러 방향의 다양한 시점을 사용자에게 제공하는 3차원(3D) 영상처리의 한 분야이다. 일반적으로 다시점 영상 코딩(Multi-View HEVC(high efficiency video coding)) 과정에 따르면, 실제의 장면을 두 개 이상의 카메라를 이용하여 캡쳐하여 MVV(Multi-View Video) 시퀀스를 인코딩한 후, 비트스트림을 수신기측을 통해 MV-HEVC로 전송한 후 디코딩 과정을 거치면 3D 영상을 디스플레이할 수 있다. 이러한 과정에서, 입체 영상을 생성하기 위해 여러 시점에서 찍은 영상들은 그 데이터양이 방대하다. 따라서, 입체 영상의 구현을 위한 네트워크 인프라, 지상파 대역폭 등을 고려하면 MPEG-2, H.264/AVC 등과 같은 단일시점 비디오 압축(Single-View Video Coding) 또는 종래의 MVV 압축에 최적화된 부호화 장치를 사용하여 압축하더라도 구현상에 많은 제약이 있다.
도 3b를 참조하면, 다시점 비디오 부호화에서 가장 많이 사용하는 예측 구조는 시점 축으로는 I-B-P-B-P 구조이며, 시간 축으로의 예측은 계층적 B 화면인 구조이다. 도 3b는 계층적 B 화면을 이용하여 사용한 시-공간적 예측 구조이다. Sn은 n번째 시점의 카메라이고, Tn은 시간적으로 n번째 화면을 의미한다. 화살표는 각 화면 간의 참조 관계이다. 시-공간적 예측 구조에 대한 부호화는 각 시점별로 따로 수행된다. I-BP-B-P구조에서 I 시점인 S0을 처음 부호화하고, 이의 복원 영상을 이용하여 P 시점인 S2를 부호화한다. 이와 같은 방법으로 S0과 S2의 복원 영상을 통해 B 시점인 S1을 부호화한다. 다중영상에서 공간축의 모션 추정(Disparity Estimation DE)은 프레임간의 중복성을 측정하는 과정이다.
본원은 머신 러닝 알고리즘을 이용하여 공간축의 모션 추정(Disparity Estimation DE)하는 블록을 찾아, 복호화 과정에서 보다 쉽게 복호화를 진행할 수 있도록 다시점 영상 정보의 복호화 방법을 제공하고자 한다.
도 1은 본원의 일 실시예에 따른 다시점 영상 정보의 복호화 장치를 개략적으로 도시한 도면이고, 도 2는 본원의 일 실시예에 따른 다시점 영상 정보의 복호화 장치의 개략적인 블록도이고, 도 7은 본원의 일 실시예에 따른 다시점 영상 정보의 복호화 방법의 흐름을 도시한 제1순서도이다.
도 1, 도 2, 및 도 7을 참조하면, 본원의 일 실시예에 따른 다시점 영상 정보의 복호화 방법은, 복수의 카메라(2)에 의해 촬영된 복수의 영상의 영상 데이터에 관한 비트 스트림(bit-stream)을 수신하는 단계(S101), 비트 스트림에 포함된 영상 데이터로부터 복수의 영상의 영상 프레임 내의 블록의 뎁스 정보를 추출하여 제1정보를 생성하는 단계(S202), 복수의 영상의 영상 프레임 간의 동일한 모션 추정이 발생하였는지 판단하여 제2정보를 생성하는 단계(S203), 복수의 영상의 영상 프레임 내의 블록의 픽셀 정보를 추출하여 제3정보를 생성하는 단계(S204) 및 미리 훈련되어 생성된 다시점 영상 정보의 공간 보상(Disparity Compensation) 모델에 제1정보 내지 제3정보를 입력하여, 복수의 영상의 영상 프레임 간의 블록 매칭을 수행하고 공간 보상을 수행하는 단계(S205)를 포함할 수 있다.
도 1을 참조하면, 다시점 영상 정보의 복호화 시스템(100)은 다시점 영상 정보의 복호화 장치(1) 및 복수의 카메라(2)를 포함할 수 있다. 다시점 영상 정보의 복호화 장치(1)는 수신부(10) 특징 추출부(20) 및 복호화부(30)를 포함할 수 있다. 또한, 특징 추출부(20)는 제1정보 추출부(21), 제2정보 추출부(22) 및 제3정보 추출부(23)를 포함할 수 있다. 다만, 다시점 영상 정보의 복호화 장치(1)가 앞에 개시된 것들로 한정되는 것은 아니다. 예를 들어, 다시점 영상 정보의 복호화 장치(1)는 다시점 영상 정보의 인코딩 장치(미도시) 및 사용자 단말(미도시)을 포함할 수 있다.
다시점 영상 정보의 복호화 시스템(100)은 방송 서버 및 장치, 방송국에서 전파하는 방송 신호를 수신하는 장치 등을 더 포함할 수 있다. 다시점 영상 정보의 복호화 시스템(100)의 구성 중 일부는 하나의 장치 또는 서버에 구비될 수 있다. 예를 들어, 다시점 영상 정보의 복호화 장치(1) 및 사용자 단말(300)은 하나의 장치 내에 포함될 수 있다.
복수의 카메라(2)는 복수의 위치에서 영상을 촬영하는 영상 카메라 일 수 있다. 예시적으로, 복수의 영상 카메라(2)는 경기장, 콘서트 등의 광범위의 장소에서 다수의 각 영역 또는 인물 등을 촬영하는 영상 카메라 일 수 있다. 일 예로, 복수의 카메라(2)의 배치는 1차원 평행, 2차원 평행, 1차원 배열 등이 사용될 수 있고, 소정의 간격의 위치에서 영상을 촬영하는 영상 카메라일 수 있다. 영상 카메라는 양안식 카메라, 수평 리그를 사용한 카메라, 직교 리그를 사용한 카메라 등 영상 촬영이 가능한 카메라를 포함할 수 있다. 복수의 카메라(2)는 서로 다른 위치에 구비되어 하나의 객체를 촬영하는 영상 카메라 일 수 있다. 다시점 영상 정보의 복호화 장치(1)는 복수의 카메라(2)로부터 촬영된 영상을 네트워크(3)를 통해 수신할 수 있다. 또한, 다시점 영상 정보의 복호화 장치(1)는 방송 서버 및 장치, 방송국에서 전파하는 방송 신호를 네트워크(3)를 통해 수신할 수 있다.
단계 S101에서, 수신부(10)는 복수의 카메라(2)에 의해 촬영된 복수의 영상의 영상 데이터 관한 비트 스트림(bit stream)을 수신할 수 있다. 일예로, 수신부(10)는 복수의 카메라(2)에 의해 촬영된 복수의 영상의 영상 데이터에 관한 비트 스트림(bit stream)을 다시점 영상 정보의 인코딩 장치(미도시)로부터 수신할 수 있다. 다시점 영상 정보의 인코딩 장치(미도시)는 수신한 복수의 영상의 영상 데이터를 비트 스트림 형태로 변환할 수 있다. 복수의 영상은 각기 다른 위치에 구비된 복수의 카메라(2)로부터 획득된 영상일 수 있다. 달리 말해, 복수의 영상은 하나의 객체를 촬영하고 있지만, 서로 다른 위치에 구비되어 촬영된 영상일 수 있다. 즉, 복수의 영상은 동일한 시점에 동일한 객체를 촬영한 영상일 수 있다.
비트 스트림은 부호화기의 제약 조건을 만족하는 부호화 유형에 따라 저장된다. MPEG은 비트 스트림의 제약 조건으로서 구문(syntax, 이하 'syntax'라 칭함) 및 의미(semantics, 이하 'semantics'라 칭함)를 요구한다. 구문(syntax)은 데이터의 구조나 형식 및 길이를 나타내며, 데이터가 어떤 순서로 표현되는지를 나타낸다. 즉, syntax는 부호화(encoding)/복호화(decoding) 작업을 위한 문법을 맞추기 위한 것으로, 비트 스트림에 포함된 각 요소들(elements)의 순서와 각 요소의 길이, 데이터 형식 등을 정의한다. 의미(Semantics)는 데이터를 구성하는 각 비트가 의미하는 뜻을 나타낸다. 즉, 의미(Semantics)는 비트 스트림 내의 각 요소들의 의미가 무엇인지를 나타낸다. 따라서, 부호화기의 부호화 조건 또는 적용된 표준(또는 코덱)에 따라 다양한 형태의 비트 스트림이 생성될 수 있다. 일반적으로 각 표준(예를 들어 MPEG-1, MPEG-2, MPEG-4, MPEG-4 AVC 등)은 각각 상이한 비트 스트림 구문(syntax)을 가진다. 따라서, 각 표준이나 부호화 조건에 따라 부호화된 비트 스트림은 각각 다른 형식(즉, syntax 및 semantics)을 가진다고 할 수 있으며, 해당 비트 스트림의 복호화를 위해서는 부호화기에 대응되는 복호화기가 사용되어야 한다.
도 4는 본원의 일 실시예에 따른 다시점 영상 정보의 복호화 장치에서 제1정보의 생성을 설명하기 위한 도면이다.
단계 S102에서, 제1정보 추출부(21)는 비트 스트림에 포함된 영상 데이터로부터 복수의 영상의 영상 프레임 내의 블록의 뎁스 정보를 추출하여 제1정보를 생성할 수 있다. 예를 들어, 제1정보 추출부(21)는 다시점 영상 정보의 인코딩 장치(미도시)로부터 수신한 비트 스트림에 포함된 영상 데이터로부터 복수의 영상의 영상 프레임 내의 블록의 뎁스 정보를 추출하여 제1정보를 생성할 수 있다. 제1 정보는 복수의 카메라에 의해 촬영된 복수의 영상의 영상 데이터로부터 복수의 영상의 영상 프레임 내의 블록의 뎁스 정보를 추출하여 연산된 뎁스 정보 유사도 값에 의해 생성될 수 있다.
예시적으로, 도 4를 참조하면, 복수의 영상의 영상 프레임 내에는 복수의 블록이 포함될 수 있다. 복수의 블록은 서로 다른 뎁스를 가질 수 있다. 뎁스는, 화면 내용의 복잡도가 많은 부분과 복잡도가 적은 부분에서 서로 다른 깊이를 가질 수 있다. 예를 들어, 배경과 같은 영역(111)은 화면 내용의 복잡도가 적기 때문에 적은 뎁스를 가질 수 있다. 또한, 움직임이 많은 영역(112)은 화면 내용의 복잡도가 많기 때문에 깊은 뎁스를 가질 수 있다. 제1정보 추출부(21)는 제1 카메라에서 촬영된 제1 영상의 영상 프레임 내의 블록의 뎁스 정보인 움직임이 많은 영역(112)과 제2 카메라에서 촬영된 제2 영상의 영상 프레임 내의 블록의 뎁스 정보인 움직임이 많은 영역(112)의 뎁스 정보를 추출하여 제1 정보를 생성할 수 있다.
본원의 일 실시예에 따르면, 복수의 영상의 영상 프레임 내의 뎁스 정보는 영상 프레임 내의 각 블록의 64x64부터 8x8까지의 CU(Coding Unit)의 크기 정보 또는 트리 구조에 관한 정보를 포함할 수 있다. 코딩 트리 단위(Coding Tree Unit/ CTU)는 영상압축기술인 고효율 비디오코딩(HEVC: High Efficiency Video Coding)에서 사용하는 계층적 부호화 구조기술이다. 압축의 기본단위라 할 수 있는 기존 매크로 블록(macro block)은 16x16 픽셀의 고정크기인 반면 CTU는 16x16 픽셀부터 32x32 픽셀, 64x64 픽셀까지 증가되는 가변크기를 지원하여 압축효율을 높인다. CTU는 루마(luma) 코딩 트리블록(CTB: Coding Tree Block)과 크로마(chroma) CTB로 구성된다. 하나의 CTB는 다시 코딩단위(CU: Coding Unit)들로 나눠질 수 있고 이 CU는 예측단위(PU: Prediction Unit)와 변환단위(TU: Transform Unit)로 나눠진다. PU는 인트라 또는 인터예측의 단위이며, TU는 주파수 변환, 양자화의 단위이다. 일반적으로 고해상도 비디오의 경우는 64x64 픽셀과 같이 큰 CTU를 사용하고, 저해상도 비디오의 경우 기존 매크로 블록과 동일한 16x16 픽셀 크기의 CTU를 사용하여 부호화하는 것이 효과적이다.
CU(Coding Unit)의 블록 사이즈는 HEVC표준에서 64 x 64부터 8 x 8까지의 크기 정보를 가질 수 있다. 즉 화면 내용의 복잡도가 많은 부분은 보다 작은 블록을 사용하여 더욱 자세한 처리를 진행하고, 반면 화면 내용이 복잡도가 작을 경우 큰 사이즈의 블록을 사용한다. 이러한 이유로 제1정보 추출부(21)는 CU(Coding Unit) 블록 사이즈로 이 부분이 한 프레임에서 어떤 부분인지를 알 수 있다. 달리 말해, 제1정보 추출부(21)는 다중영상에서 CU(Coding Unit)사이즈가 비슷한 구역은 공간축의 모션 추정(Disparity Estimation DE)이 유사한 구역이라고 판단할 수 있다.
달리 말해, 제1정보 추출부(21)는 복수의 카메라(2)에 의해 촬영된 복수의 영상의 영상 데이터로부터 복수의 영상의 영상 프레임 내의 블록의 뎁스 정보를 추출하여 뎁스 정보 유사도 값을 연산할 수 있다. 예시적으로, 제1정보 추출부(21)는 복수의 카메라 중 제1카메라에 의해 촬영된 제1 영상의 영상 데이터로부터 영상의 영상 프레임 내의 제1블록의 뎁스 정보를 추출할 수 있다. 제1정보 추출부(21)는 복수의 카메라 중 제2카메라에 의해 촬영된 제2 영상의 영상 데이터로부터 영상의 영상 프레임 내의 제2 블록의 뎁스 정보를 추출할 수 있다.
일예로, 제1 영상의 영상데이터는 제1 카메라가 제1 객체를 제1위치에서 촬영한 데이터를 포함할 수 있다. 또한, 제2 영상의 영상 데이터는 제2 카메라가 제2 객체를 제2위치에서 촬영한 데이터를 포함할 수 있다. 제1 영상의 영상 데이터 및 제2 영상의 영상 데이터는 같은 시간상에 촬영된 영상일 수 있다. 제1정보 추출부(21)는 제1블록의 뎁스 정보 및 제2블록의 뎁스 정보 유사도 값을 연산할 수 있다. 제1정보 추출부(21)는 제1정보의 뎁스 정보 및 제2블록의 뎁스 정보의 유사도 값이 미리 설정된 기준값 이상일 경우, 해당 블록이 유사하다고 판단할 수 있다. 예시적으로, 도 4를 참조하면, 제1정보 추출부(21)는 제1 영상의 영상 데이터의 제1블록의 뎁스 정보(예를 들어, 움직임이 많은 영역(112))과 제2 영상의 영상 데이터의 제2블록의 뎁스 정보(예를 들어, 움직임이 많은 영역(112) 비교하여, 뎁스 정보 유사도 값을 연산하고, 제1 정보를 생성할 수 있다.
도 5는 본원의 일 실시예에 따른 다시점 영상 정보의 복호화 장치에서 제2정보의 생성을 설명하기 위한 도면이다.
단계 S103에서 제2정보 추출부(22)는 복수의 영상의 영상 프레임 간의 동일한 모션 추정이 발생하였는지 판단하여 제2정보를 생성할 수 있다. 예를 들어, 제2정보는, 복수의 영상의 영상 프레임 간의 동일한 모션 추정이 발생하였는지 판단하여 연산된 모션 추정값으로 부터 생성될 수 있다. 제2정보 추출부(22)는 제1 카메라로부터 제1시간에 촬영된 영상 프레임과 제2시간에 촬영된 영상 프레임 간의 동일한 모션 추정이 발생하였는지를 판단할 수 있다. 이때, 제1시간은 제2시간 이전 시간일 수 있다. 또한, 제2정보 추출부(22)는 제2카메라로부터 제1시간에 촬영된 영상 프레임과 제2시간에 촬영된 영상 프레임 간의 동일한 모션 추정이 발생하였는지를 판단할 수 있다. 또한, 제2정보 추출부(22)는 제1시간에 촬영된 제1카메라로부터 획득된 제1 영상 프레임과 제2 카메라로부터 획득된 제2 영상 프레임 간의 비교를 통해 동일한 모션 추정이 발생했는지 여부를 판단할 수 있다.
달리 말해, 제2정보 추출부(22)는 복수의 영상의 영상 프레임 간의 동일한 모션 추정이 발생하였는지 판단하여 모션 추정값을 연산할 수 있다. 비디오 코딩에서 모션벡터(Motion Vector, MV)는 기준 프레임에서 일치하는 예측 유닛(PU)의 위치를 식별할 수 있다. HEVC에서 모션벡터(Motion Vector, MV)는 인접 프레임 간의 움직임을 나타내도록 정교하게 개발되었다. 따라서, 두 개의 영상의 해당 CU(Coding Unit)의 예측 유닛(PU)이 동일하다면, 동일 CU(Coding Unit)일 확률은 더 높을 수 있다. 달리 말해, 서로 다른 시간에 획득된 두 개의 영상의 블록(CU(Coding Unit))의 예측 유닛(PU)이 동일하다면, 서로 다른 시간에 획득된 두 개의 영상은 동일 블록(CU(Coding Unit))일 확률이 높을 수 있다. 제2정보 추출부(22)는 서로 다른 시간에 획득된 복수의 영상의 영상 프레임 간의 동일한 모션 추정이 발생하였는지 판단하여 해당 블록의 모션 추정값을 연산할 수 있다.
본원의 일 실시예에 따르면, 제2정보 추출부(22)는 영상 프레임 간의 대응하는 블록의 예측 유닛(Prediction Unit)이 동일한 경우, 영상 프레임 간의 동일한 모션 추정이 발생한 것으로 판단하여 미리 설정된 모션 추정값을 부여할 수 있다. 달리 말해, 제2정보 추출부(22)는 제1 시점에 획득된 제1 영상 프레임 및 제2 시점에 획득된 제2 영상 프레임 간의 대응하는 제1블록의 예측 유닛이 동일한 경우, 제1 영상 프레임 및 제2영상 프레임 간의 동일한 모션 추정이 발생한 것으로 판단하여 미리 설정된 모션 추정값을 부여할 수 있다.
제2정보 추출부(22)는 시간축의 모션 추정(Motion Estimation, ME)이 발생하는 구역은 시간영역에서 물체의 움직임을 의미할 수 있다. 만약 다중영상에 두 프레임에 똑같은 시간축의 모션 추정(Motion Estimation, ME)이 발생할 경우, 그 구역의 공간축의 모션 추정(Disparity Estimation DE)가 발생할 확률이 높을 것으로 판단할 수 있다.
예시적으로 도 5를 참조하면, 물체가 움직이는 구역은 많은 시간축의 모션 추정(Motion Estimation, ME)이 발생한다. 사람(객체)이 움직이는 영역은 배경 영역과 비교할 때 다른 색으로 칠해져 있는 것을 확인할 수 있다. 이는 물체가 움직이는 구역(영역)에서 시간축의 모션 추정이 발생함을 의미할 수 있다.
단계 S104에서, 제3정보 추출부(23)는 복수의 영상의 영상 프레임 내의 블록의 픽셀 정보를 추출하여 제3정보를 생성할 수 있다. 달리 말해, 제3정보 추출부(21)는 복수의 영상의 영상 프레임 내의 블록의 픽셀 정보를 추출하여 픽셀 정보 유사도 값을 연산할 수 있다. 제3정보 추출부(23)는 복수의 영상의 영상 프레임 내의 블록의 픽셀 정보(픽셀 값)가 동일할 경우, 해당 구역에서 공간축의 모션 추정(Disparity Estimation DE)이 확률이 높다고 판단할 수 있다. 달리 말해, 제3정보 추출부(23)는 제1 카메라로부터 획득된 영상의 영상 프레임 내의 제1블록의 픽셀 정보 및 제2 카메라로부터 획득된 영상의 영상 프레임 내의 제2블록의 픽셀 정보를 추출하여 동일한지 여부를 판단할 수 있다. 제3정보 추출부(23)는 제1블록의 픽셀 정보와 제2블록의 픽셀 정보가 일치할 경우, 해당 영역(제1블록 및 제2블록)이 동일한 구역이라고 판단할 수 있다.
본원의 일 실시예에 따르면, 제3정보 추출부(23)는 영상 프레임마다 복수의 블록으로 나누어진 영역의 각각의 픽셀 정보를 추출할 수 있다. 제3정보 추출부(23)는 복수의 영상의 영상 프레임 내의 블록의 제1영역에 해당하는 각각의 픽셀 정보를 추출하여 픽셀 정보 유사도 값을 연산할 수 있다.
단계 S105에서, 공간 보상부(미도시)는 미리 훈련되어 생성된 다시점 영상 정보의 공간 보상(Disparity Compensation) 모델(31)에 제1정보 내지 제3정보를 입력하여, 복수의 영상의 영상 프레임 간의 블록 매칭을 수행하고 공간 보상을 수행할 수 있다. 예를 들어, 공간 보상부(미도시)는 복수의 카메라에 의해 촬영된 복수의 영상의 영상 데이터로부터 제1정보 내지 제3정보를 추출한 정보를 입력으로 하여, 복수의 영상의 영상 프레임 간의 블록 매칭을 수행하고 공간 보상을 수행할 수 있다. 공간 보상부(미도시)는 공간 보상의 진행 과정에서 이미 훈련된 다시점 영상 정보의 공간 보상 모델(31)을 사용하여 공간 보상을 수행할 수 있다.
본원의 일 실시예에 따르면, 공간 보상 모델(31)은 뎁스 정보 유사도 값, 모션 추정값 및 픽셀 정보 유사도 값에 기초하여 머신 러닝 알고리즘을 이용하여 생성될 수 있다. 달리 말해, 공간 보상 모델(31)은 복수의 카메라(2)에 의해 촬영된 복수의 영상의 영상 데이터로부터 복수의 영상의 영상 프레임 내의 블록의 뎁스 정보를 추출하여 연산된 뎁스 정보 유사도 값, 복수의 영상의 영상 프레임 간의 동일한 모션 추정이 발생하였는지 판단하여 연산된 모션 추정값 및 복수의 영상의 영상 프레임 내의 블록의 픽셀 정보를 추출하여 연산된 픽셀 정보 유사도 값에 기초하여 머신 러닝 알고리즘을 이용하여 생성될 수 있다. 이때, 머신 러닝 알고리즘은 SVM(Support Vector Machine)을 포함을 포함할 수 있다. 서포트 벡터 머신(Support Vector Machine, SVM)은 기계 학습의 분야 중 하나로 패턴 인식, 자료 분석을 위한 지도 학습 모델이다.
도 8은 본원의 일 실시예에 따른 다시점 영상 정보의 복호화 방법의 흐름을 도시한 제2순서도이다.
이하에서는 본원의 일 실시예에 따른 다시점 영상 정보의 복호화 방법의 흐름을 도시한 제2순서도에 대해 설명하고자 한다. 다만, 다시점 영상 정보의 복호화 방법은 앞서 살핀 본원의 일 실시예 및 다른 일 실시예에 따른 다시점 영상 정보의 복호화 방법을 수행하는 다시점 영상 정보의 복호화 장치(1) 각각에 대한 것으로서, 앞서 살핀 본원의 일 실시예 및 다른 일 실시예에 따른 다시점 영상 정보의 복호화 방법과 동일하거나 상응하는 기술적 특징을 포함하는 발명이라 할 것이므로, 앞서 설명한 구성과 동일 또는 유사한 구성에 대해서는 동일한 도면부호를 사용하고, 중복되는 설명은 간략히 하거나 생략 하기로 한다.
단계 S201에서, 제1 정보 추출부(21)는 복수의 카메라(2)에 의해 촬영된 복수의 영상의 영상 데이터로부터 복수의 영상의 영상 프레임 내의 블록의 뎁스 정보 유사도 값을 연산할 수 있다. 예를 들어, 제 1 정보 추출부(21)는 다시점 영상 정보의 공간 보상 모델(30)의 학습 데이터로 사용될 제1 정보를 추출할 수 있다. 달리 말해, 제1정보 추출부(21)는 제1 카메라에 의해 촬영된 제 1 영상의 영상 데이터로부터 제1 영상의 영상 프레임 내의 블록의 뎁스 정보를 추출할 수 있다. 또한, 제1 정보 추출부(21)는 제 2 카메라에 의해 촬영된 제2 영상의 영상 데이터로부터 제 2 영사의 영상 프레임 내의 블록의 뎁스 정보를 추출할 수 있다. 제 1 정보 부출부(21)는 제 1 카메라 및 제 2 카메라 각각에 의해 촬영된 제1영상의 영상 데이터 및 제2 영상의 영상 데이터의 동일 영역의 블록의 뎁스 정보를 비교하여 유사도 값을 연산할 수 있다.
단계 S202에서, 제2 정보 추출부(22)는 복수의 영상의 영상 프레임 간의 동일한 모션 추정이 발생하였는지 판단하여 모션 추정값을 연산할 수 있다. 예를 들어, 제2 정보 추출부(22)는 다시점 영상 정보의 공간 보상 모델(30)의 학습 데이터로 사용될 제2정보를 추출할 수 있다. 제2 정보 추출부(21)는 서로 다른 시간에 획득된 제1 영상 및 제 2 영상의 영상 프레임 간의 동일한 모션 추정이 발생하였는지 판단하여 모션 추정값을 연산할 수 있다. 제 2 정보 추출부(21)는 제1시간에 제1카메라로 획득된 제1영상 및 제 2시간에 제1카메라로 획득된 제2영상의 영상 프레임 간의 동일한 모션 추정이 발생하였는지 판단할 수 있다. 또한, 제2정보 추출부(21)는 서로 다른 시간에 획득된 제1 영상 및 제 2영상의 동일 영역(블록)에 동일한 모션 추정이 발생하였는지 판단하여 모션 추정값을 연산할 수 있다.
단계 S203에서, 제3정보 추출부(23)는 복수의 영상의 영상 프레임 내의 블록의 픽셀 정보를 추출하여 픽셀 정보 유사도 값을 연산할 수 있다. 예를 들어, 제3정보 추출부(23)는 다시점 영상 정보의 공간 보상 모델(30)의 학습 데이터로 사용될 제3정보를 추출할 수 있다. 달리 말해, 제3정보 추출부(23)는 제1 영상의 영상 프레임 내의 제 1블록의 픽셀 정보를 추출할 수 있다. 또한, 제 3 정보 추출부(23)는 제2 영상의 영상 프레임 내의 제2블록의 픽셀 정보를 추출할 수 있다. 제3정보 추출부(23)는 제1 블록 및 제2 블록의 픽셀 정보로부터 유사도 값을 연산할 수 있다.
앞서 설명된 단계 S201 내지 단계 S203은 공간 보상 모델(31)의 훈련용 데이터를 추출하기 위한 과정일 수 있다. 훈련용 데이터는, 공간 보상 모델(31)의 학습 데이터로 사용될 수 있다.
단계 S204에서, 공간 보상 모델(31)은 뎁스 정보 유사도 값, 모션 추정값 및 픽셀 정보 유사도 값에 기초하여 머신 러닝 알고리즘을 이용하여 생성될 수 있다. 이때, 머신 러닝 알고리즘은SVM(Support Vector Machine)을 포함할 수 있다. 본원의 일 실시예에 따르면, 단계 S204에서, 공간 보상 모델(31)은 단계 S201 내지 단계 S203에서 연산된 뎁스 정보 유사도 값, 모션 추정값 및 픽셀 정보 유사도 값을 입력으로 하여 생성될 수 있다.
단계 S205에서, 복호화부(30)는 다시점 영상 정보의 공간 보상 모델(31)을 이용하여, 복수의 카메라(2)에 의해 촬영되어 부호화된 영상 데이터를 복호화할 수 있다. 예를 들어, 복호화부(30)는 복호화를 수행할 영상 데이터를 다시점 영상 정보의 공간 보상 모델(31)을 이용하여, 복수의 카메라(2)에 의해 촬영되어 부호화된 영상 데이터를 복호화할 수 있다. 예시적으로, 복호화부(30)는 다시점 영상 정보의 공간 보상 모델(31)을 이용하여, 복수의 카메라(2)에 의해 촬영되어 다시점 영상 정보의 인코딩 장치(미도시)에서 부호화된 영상 데이터를 복호화할 수 있다.
본원의 일 실시예에 따르면, 복호화부(30)는 다시점 영상 정보의 디코딩 장치(미도시)로부터 부호화된 영상 데이터를 수신하고, 해당 영상 데이터를 복호화하여 출력할 수 있다. 복호화부(30)는 수신받은 해당 영상 데이터에서 제1 정보 내지 제3 정보를 추출하여 다시점 영상 정보의 공간 보상 모델(31)에 입력하여, 복수의 영상의 영상 프레임 간의 블록 매칭을 수행하고 공간 보상을 수행할 수 있다. 복호화부(30)는 복수의 영상간의 중복성을 측정하기 위해 제1 정보 내지 제3 정보를 추출하고, 다시점 영상 정보의 공간 보상 모델(31)에 입력하여, 복수의 영상의 영상 프레임 간의 블록 매칭을 수행하고 공간 보상을 수행할 수 있다.
본원의 일 실시예에 따르면, 다시점 영상 정보의 복호화 장치(1)는 뎁스 정보 유사도 값, 모션 추정값 및 픽셀 정보 유사도 값에 기초하여 머신 러닝 알고리즘을 이용하여 다시점 영상 정보의 공간 보상 모델(31)을 훈련하여 미리 생성할 수 있다. 다시점 영상 정보의 복호화 장치(1)는 공간 보상 과정에서 훈련된 다시점 영상 정보의 공간 보상 모델(31)을 사용하여 복호화를 수행할 수 있다.
도 6a는 본원의 일 실시예에 따른 다시점 영상 정보의 복호화 장치의 훈련 과정을 개략적으로 도시한 도면이다.
예시적으로 도 6a를 참조하면, 다시점 영상 정보의 복호화 장치(1)는 훈련 측면에서 MV-HEVC의 비트스트림으로부터 3개의 특징(제1정보 내지 제3정보)을 추출하고 DC(공간 보상)의 위치(position)와 비교할 수 있다. DC(공간 보상)가 3개의 특징(제1정보 내지 제3정보) 고유 값의 위치(position)와 같으면 SVM(공간 보상 모델)의 레이블은 1로 표시되고 반대의 경우(고유 값의 위치가 같지 않으면)는 SVM(공간 보상 모델)의 레이블은 0으로 표시될 수 있다. 또한, SVM에서 교육하기 위해 실제의 장면을 두 개 이상의 카메라를 이용하여 캡쳐하여 MVV(Multi-View Video) 시퀀스를 인코딩한 후, 압축된 다중영상은 비트 스트림의 형태로 복호기에 보내질 수 있다.
도 6b는 본원의 일 실시예에 따른 다시점 영상 정보의 복호화 장치의 예측 과정을 개략적으로 도시한 도면이다.
예시적으로 도 6b를 참조하면, 다시점 영상 정보의 복호화 장치(1)에서 디코더(MV-HEVC Decoder)는 복수의 카메라(2)에 의해 촬영된 부호화된 MV-HEVC 비트스트림(Bit-sream)을 정상적으로 압축 해제할 수 있다. 또한, 다시점 영상 정보의 복호화 장치(1)는 공간축의 보상(Disparity Compensation DC)의 처리를 시작할 때 SVM 예측 모듈(머신 러닝 알고리즘)을 사용하여 세 가지 정보(제1정보 내지 제3정보)를 추출하고 예측할 수 있다. 이때, 제1 정보 추출부(21)는 비트 스트림에 포함된 영상 데이터로부터 복수의 영상의 영상 프레임 내의 블록의 뎁스 정보를 추출하여 제1정보를 생성하고, 제2정보 추출부(22)는 복수의 영상의 영상 프레임 간의 동일한 모션 추정이 발생하였는지 판단하여 제2정보를 생성하고, 제3정보 추출부(23)는 복수의 영상의 영상 프레임 내의 블록의 픽셀 정보를 추출하여 제3정보를 생성할 수 있다.
다시점 영상 정보의 복호화 장치(1)는 다시점 영상 정보의 공간 보상 모델에 제1정보 내지 상기 제3정보를 입력하여, 복수의 영상의 영상 프레임 간의 블록 매칭을 수행하고 공간 보상을 수행할 수 있다. 이때, 다시점 영상 정보의 복호화 장치(1)에서 예측이 성공적이면 독립 뷰 (카메라 0) 에서 해당 CU(Coding Unit)를 압축되지 않은 CU(Coding Unit)로 복사할 수 있다. 반면, 다시점 영상 정보의 복호화 장치(1)에서 예측이 성공적이지 않다면, 공간축의 보상(Disparity Compensation DC)으로 처리할 수 있다.
이하에서는 본원의 일 실시예 및 다른 일 실시예에 따른 다시점 영상 정보의 복호화 장치(1)에 대해 설명한다. 다만, 다시점 영상 정보의 복호화 장치(1)는 앞서 살핀 본원의 일 실시예 및 다른 일 실시예에 따른 다시점 영상 정보의 복호화 방법을 수행하는 다시점 영상 정보의 복호화 장치(1) 각각에 대한 것으로서, 앞서 살핀 본원의 일 실시예 및 다른 일 실시예에 따른 다시점 영상 정보의 복호화 방법과 동일하거나 상응하는 기술적 특징을 포함하는 발명이라 할 것이므로, 앞서 설명한 구성과 동일 또는 유사한 구성에 대해서는 동일한 도면부호를 사용하고, 중복되는 설명은 간략히 하거나 생략 하기로 한다.
도 2는 본원의 일 실시예에 따른 다시점 영상 정보의 복호화 장치의 개략적인 블록도이다.
도 2를 참조하면, 본원의 일 실시예에 따른 다시점 영상 정보의 복호화 장치(1)는 수신부(10), 특징 추출부(20) 및 복호화부(30)를 포함할 수 있다. 예시적으로, 다시점 영상 정보의 복호화 장치(1)는 다시점 영상 정보의 복호화를 수행하는 소프트웨어가 설치된 컴퓨터, 서버, 디바이스일 수 있으나, 이에 한정되지 않는다.
수신부(10)는 복수의 카메라(2)에 의해 촬영된 복수의 영상의 영상 데이터에 관한 비트 스트림(bit stream)을 수신할 수 있다.
특징 추출부(20)는 비트 스트림에 포함된 영상 데이터로부터 복수의 영상의 영상 프레임 내의 블록의 뎁스 정보, 복수의 영상의 영상 프레임 간의 모션 추정에 관한 정보 및 복수의 영상의 영상 프레임 내의 블록의 픽셀 정보를 포함하는 비트 스트림의 특징 정보를 추출할 수 있다.
본원의 일 실시예에 따르면, 특징 추출부(20)는 제1정보 추출부(21), 제2정보 추출부(22) 및 제3정보 추출부(23)를 포함할 수 있다.
제1정보 추출부(21)는 비트 스트림에 포함된 영상 데이터로부터 복수의 영상의 영상 프레임 내의 블록의 뎁스 정보를 추출하여 제1정보를 생성할 수 있다.
제2정보 추출부(22)는 복수의 영상의 영상 프레임 간의 동일한 모션 추정이 발생하였는지 판단하여 제2정보를 생성할 수 있다.
제3정보 추출부(23)는 복수의 영상의 영상 프레임 내의 블록의 픽셀 정보를 추출하여 제3정보를 생성할 수 있다.
복호화부(30)는 미리 훈련되어 생성된 다시점 영상 정보의 공간 보상(Disparity Compensation) 모델(31)을 포함하며, 공간 보상 모델에 추출된 특징 정보를 입력하여 복수의 영상의 영상 프레임 간의 블록 매칭을 수행하고 공간 보상을 수행할 수 있다.
여기서, 공간 보상 모델(31)은 복수의 카메라(3)에 의해 촬영된 복수의 영상의 영상 데이터로부터 복수의 영상의 영상 프레임 내의 블록의 뎁스 정보를 추출하여 연산된 뎁스 정보 유사도 값, 복수의 영상의 영상 프레임 간의 동일한 모션 추정이 발생하였는지 판단하여 연산된 모션 추정값 및 복수의 영상의 영상 프레임 내의 블록의 픽셀 정보를 추출하여 연산된 픽셀 정보 유사도 값에 기초하여 머신 러닝 알고리즘을 이용하여 생성될 수 있다. 이때, 머신 러닝 알고리즘은 SVM(Support Vector Machine)을 포함할 수 있다.
본원의 일 실시예에 따르면, 다시점 영상 정보의 인코딩 장치(미도시)는 복수의 카메라(3) 각각으로부터 각각 촬영된 복수의 영상 데이터를 수신할 수 있다. 다시점 영상 정보의 인코딩 장치(미도시)는 복수의 영상 카메라(2)로부터 영상 데이터의 특성, 줌-인/줌-아웃(zoom-in/zoom-out)의 정도, 영상 카메라의 시점(view), 카메라의 위치 등이 서로 상이한 복수의 영상 데이터를 수신할 수 있다. 예를 들어, 영상 데이터의 특성은 해상도, 색상, 배경(background)의 유사도, 픽셀의 수, 영상 프레임의 수 등을 포함할 수 있다. 다시점 영상 정보의 인코딩 장치(미도시)는 복수의 카메라(2)로부터 수신한 영상 데이터를 부호화할 수 있다. 또한, 다시점 영상 정보의 인코딩 장치(미도시)는 수신한 영상 데이터의 특성, 영상 카메라의 시점, 줌-인/줌-아웃(zoom-in/zoom-out)의 정도, 카메라의 위치 등에 따라 수신한 영상 데이터의 부호화 방법을 결정할 수 있다.
상술한 설명에서, 단계 S101 내지 S105 및 S201 내지 S205는 본원의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.
본원의 일 실시 예에 따른 다시점 영상 정보의 복호화 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
또한, 전술한 다시점 영상 정보의 복호화 방법은 기록 매체에 저장되는 컴퓨터에 의해 실행되는 컴퓨터 프로그램 또는 애플리케이션의 형태로도 구현될 수 있다.
전술한 본원의 설명은 예시를 위한 것이며, 본원이 속하는 기술분야의 통상의 지식을 가진 자는 본원의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본원의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본원의 범위에 포함되는 것으로 해석되어야 한다.
1: 다시점 영상 정보의 복호화 장치
10: 수신부
20: 특징 추출부
21: 제1정보 추출부
22: 제2정보 추출부
23: 제3정보 추출부
30: 복호화부

Claims (13)

  1. 다시점 영상 정보의 복호화 방법에 있어서,
    복수의 카메라에 의해 촬영된 복수의 영상의 영상 데이터에 관한 비트 스트림(bit stream)을 수신하는 단계;
    상기 비트 스트림에 포함된 영상 데이터로부터 복수의 영상의 영상 프레임 내의 블록의 뎁스 정보를 추출하여 제1정보를 생성하는 단계;
    복수의 영상의 영상 프레임 간의 동일한 모션 추정이 발생하였는지 판단하여 제2정보를 생성하는 단계;
    상기 복수의 영상의 영상 프레임 내의 블록의 픽셀 정보를 추출하여 제3정보를 생성하는 단계;
    복수의 카메라에 의해 촬영된 복수의 영상의 영상 데이터로부터 복수의 영상의 영상 프레임의 블록의 뎁스 정보를 추출하여 뎁스 정보 유사도 값을 연산하는 단계;
    복수의 영상의 영상 프레임 간의 동일한 모션 추정이 발생하였는지 판단하여 모션 추정값을 연산하는 단계;
    복수의 영상의 영상 프레임 내의 블록의 픽셀 정보를 추출하여 픽셀 정보 유사도 값을 연산하는 단계;
    상기 뎁스 정보 유사도 값, 상기 모션 추정값 및 상기 픽셀 정보 유사도 값에 기초하여 머신 러닝 알고리즘을 이용하여 미리 훈련된 다시점 영상 정보의 공간 보상 모델을 생성하는 단계; 및
    상기 미리 훈련되어 생성된 상기 다시점 영상 정보의 공간 보상(Disparity Compensation) 모델에 제1정보 내지 상기 제3정보를 입력하여, 복수의 영상의 영상 프레임 간의 블록 매칭을 수행하고 공간 보상을 수행하는 단계,
    를 포함하되,
    상기 뎁스 정보 유사도 값을 연산하는 단계는,
    상기 복수의 영상의 영상 프레임 중 제1영상의 영상 데이터의 제1블록의 뎁스 정보 및 제2영상의 영상 데이터의 제2블록의 뎁스 정보를 비교하여, 뎁스 정보 유사도 값을 연산하고,
    상기 모션 추정값을 연산하는 단계는,
    상기 복수의 영상의 영상 프레임 간의 예측 유닛(PU)을 비교하여 상기 복수의 영상의 영상 프레임 간의 동일한 모션 추정이 발생하였는지 판단하고,
    상기 픽셀 정보 유사도 값을 연산하는 단계는,
    복수의 영상의 영상 프레임 내의 블록의 제1영역에 해당하는 픽셀 정보 각각을 추출하여 픽셀 정보 유사도 값을 연산하는 것인, 다시점 영상 정보의 복호화 방법.
  2. 삭제
  3. 제1항에 있어서,
    상기 머신 러닝 알고리즘은 SVM(Support Vector Machine)을 포함하는 것인, 다시점 영상 정보의 복호화 방법.
  4. 제1항에 있어서,
    상기 복수의 영상의 영상 프레임 내의 상기 뎁스 정보는 영상 프레임 내의 각 블록의 64x64부터 8x8까지의 CU(Coding Unit)의 크기 정보 또는 트리 구조에 관한 정보를 포함하는 것인, 다시점 영상 정보의 복호화 방법.
  5. 제1항에 있어서,
    상기 복수의 영상의 영상 프레임 간의 동일한 모션 추정이 발생하였는지 판단하여 모션 추정값을 연산하는 단계는, 영상 프레임 간의 대응하는 블록의 예측 유닛(Prediction Unit)이 동일한 경우, 상기 영상 프레임 간의 동일한 모션 추정이 발생한 것으로 판단하여 미리 설정된 모션 추정값을 부여하는 것인, 다시점 영상 정보의 복호화 방법.
  6. 다시점 영상 정보의 복호화 방법에 있어서,
    복수의 카메라에 의해 촬영된 복수의 영상의 영상 데이터로부터 복수의 영상의 영상 프레임 내의 블록의 뎁스 정보를 추출하여 뎁스 정보 유사도 값을 연산하는 단계;
    복수의 영상의 영상 프레임 간의 동일한 모션 추정이 발생하였는지 판단하여 모션 추정값을 연산하는 단계;
    복수의 영상의 영상 프레임 내의 블록의 픽셀 정보를 추출하여 픽셀 정보 유사도 값을 연산하는 단계;
    상기 뎁스 정보 유사도 값, 상기 모션 추정값 및 상기 픽셀 정보 유사도 값에 기초하여 머신 러닝 알고리즘을 이용하여 미리 훈련된 다시점 영상 정보의 공간 보상 모델을 생성하는 단계; 및
    상기 다시점 영상 정보의 공간 보상 모델을 이용하여, 복수의 카메라에 의해 촬영되어 부호화된 영상 데이터를 복호화하는 단계,
    를 포함하고,
    상기 영상 데이터를 복호화하는 단계는,
    복수의 카메라에 의해 촬영된 부호화된 영상 데이터에 관한 비트 스트림(bit stream)을 수신하는 단계;
    상기 비트 스트림에 포함된 영상 데이터로부터 복수의 영상의 영상 프레임 내의 블록의 뎁스 정보를 추출하여 제1정보를 생성하는 단계;
    복수의 영상의 영상 프레임 간의 동일한 모션 추정이 발생하였는지 판단하여 제2정보를 생성하는 단계;
    상기 복수의 영상의 영상 프레임 내의 블록의 픽셀 정보를 추출하여 제3정보를 생성하는 단계; 및
    상기 다시점 영상 정보의 공간 보상 모델에 제1정보 내지 상기 제3정보를 입력하여, 복수의 영상의 영상 프레임 간의 블록 매칭을 수행하고 공간 보상을 수행하는 단계,
    를 포함하되,
    상기 뎁스 정보 유사도 값을 연산하는 단계는,
    상기 복수의 영상의 영상 프레임 중 제1영상의 영상 데이터의 제1블록의 뎁스 정보 및 제2영상의 영상 데이터의 제2블록의 뎁스 정보를 비교하여, 뎁스 정보 유사도 값을 연산하고,
    상기 모션 추정값을 연산하는 단계는,
    상기 복수의 영상의 영상 프레임 간의 예측 유닛(PU)을 비교하여 상기 복수의 영상의 영상 프레임 간의 동일한 모션 추정이 발생하였는지 판단하고,
    상기 픽셀 정보 유사도 값을 연산하는 단계는,
    복수의 영상의 영상 프레임 내의 블록의 제1영역에 해당하는 픽셀 정보 각각을 추출하여 픽셀 정보 유사도 값을 연산하는 것인, 다시점 영상 정보의 복호화 방법.
  7. 제6항에 있어서,
    상기 머신 러닝 알고리즘은 SVM(Support Vector Machine)을 포함하는 것인, 다시점 영상 정보의 복호화 방법.
  8. 삭제
  9. 다시점 영상 정보의 복호화 장치에 있어서,
    복수의 카메라에 의해 촬영된 복수의 영상의 영상 데이터에 관한 비트 스트림(bit stream)을 수신하는 수신부;
    상기 비트 스트림에 포함된 영상 데이터로부터 복수의 영상의 영상 프레임 내의 블록의 뎁스 정보, 복수의 영상의 영상 프레임 간의 모션 추정에 관한 정보 및 상기 복수의 영상의 영상 프레임 내의 블록의 픽셀 정보를 포함하는 상기 비트 스트림의 특징 정보를 추출하는 특징 추출부; 및
    미리 훈련되어 생성된 다시점 영상 정보의 공간 보상(Disparity Compensation) 모델을 포함하며, 상기 공간 보상 모델에 상기 추출된 특징 정보를 입력하여 복수의 영상의 영상 프레임 간의 블록 매칭을 수행하고 공간 보상을 수행하는 복호화부,
    를 포함하되,
    상기 특징 추출부는,
    상기 비트 스트림에 포함된 영상 데이터로부터 복수의 영상의 영상 프레임 내의 블록의 뎁스 정보를 추출하여 제1정보를 생성하는 제1정보 추출부;
    복수의 영상의 영상 프레임 간의 동일한 모션 추정이 발생하였는지 판단하여 제2정보를 생성하는 제2정보 추출부; 및
    상기 복수의 영상의 영상 프레임 내의 블록의 픽셀 정보를 추출하여 제3정보를 생성하는 제3정보 추출부,
    를 포함하고,
    상기 제1정보 추출부는,
    상기 복수의 영상의 영상 프레임 중 제1영상의 영상 데이터의 제1블록의 뎁스 정보 및 제2영상의 영상 데이터의 제2블록의 뎁스 정보를 비교하여, 뎁스 정보 유사도 값을 연산하고,
    상기 제2정보 추출부는,
    상기 복수의 영상의 영상 프레임 간의 예측 유닛(PU)을 비교하여 상기 복수의 영상의 영상 프레임 간의 동일한 모션 추정이 발생하였는지 판단하고,
    상기 제3정보 추출부는,
    복수의 영상의 영상 프레임 내의 블록의 제1영역에 해당하는 픽셀 정보 각각을 추출하여 픽셀 정보 유사도 값을 연산하는 것인, 다시점 영상 정보의 복호화 장치.
  10. 제9항에 있어서,
    상기 공간 보상 모델은, 복수의 카메라에 의해 촬영된 복수의 영상의 영상 데이터로부터 복수의 영상의 영상 프레임 내의 블록의 뎁스 정보를 추출하여 연산된 뎁스 정보 유사도 값, 복수의 영상의 영상 프레임 간의 동일한 모션 추정이 발생하였는지 판단하여 연산된 모션 추정값 및 복수의 영상의 영상 프레임 내의 블록의 픽셀 정보를 추출하여 연산된 픽셀 정보 유사도 값에 기초하여 머신 러닝 알고리즘을 이용하여 생성되는 것인, 다시점 영상 정보의 복호화 장치.
  11. 삭제
  12. 제10항에 있어서,
    상기 머신 러닝 알고리즘은 SVM(Support Vector Machine)을 포함하는 것인, 다시점 영상 정보의 복호화 장치.
  13. 제1항, 제3항 내지 제7항 중 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한, 컴퓨터로 읽을 수 있는 기록매체.
KR1020180160595A 2018-12-13 2018-12-13 다시점 영상 정보의 복호화 방법 및 장치 KR102127212B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020180160595A KR102127212B1 (ko) 2018-12-13 2018-12-13 다시점 영상 정보의 복호화 방법 및 장치
PCT/KR2018/016934 WO2020122308A1 (ko) 2018-12-13 2018-12-28 다시점 영상 정보의 복호화 방법 및 장치
US16/711,941 US11132819B2 (en) 2018-12-13 2019-12-12 Method and apparatus for decoding multi-view video information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180160595A KR102127212B1 (ko) 2018-12-13 2018-12-13 다시점 영상 정보의 복호화 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20200072705A KR20200072705A (ko) 2020-06-23
KR102127212B1 true KR102127212B1 (ko) 2020-07-07

Family

ID=71076986

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180160595A KR102127212B1 (ko) 2018-12-13 2018-12-13 다시점 영상 정보의 복호화 방법 및 장치

Country Status (2)

Country Link
KR (1) KR102127212B1 (ko)
WO (1) WO2020122308A1 (ko)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2636222A1 (en) * 2010-11-04 2013-09-11 Koninklijke Philips Electronics N.V. Generation of depth indication maps
WO2014050741A1 (ja) * 2012-09-25 2014-04-03 日本電信電話株式会社 映像符号化方法および装置、映像復号方法および装置、及びそれらのプログラム
EP3151562B1 (en) * 2015-09-29 2020-06-17 Dolby Laboratories Licensing Corporation Feature based bitrate allocation in non-backward compatible multi-layer codec via machine learning

Also Published As

Publication number Publication date
KR20200072705A (ko) 2020-06-23
WO2020122308A1 (ko) 2020-06-18

Similar Documents

Publication Publication Date Title
JP4562774B2 (ja) 映像合成基盤の多視点動映像の符号化及び復号化を行うための方法及び装置
KR101375666B1 (ko) 전역 차이 벡터를 이용한 다시점 영상의 부호화, 복호화방법 및 장치
KR101502612B1 (ko) 공유된 비디오 코딩 정보에 기반하여 다수의 공간적으로 스케일된 비디오를 갖는 실시간 인코딩 시스템
CN112789852A (zh) 基于历史的图像编码方法及其设备
KR101878515B1 (ko) 움직임 보상된 샘플 기반 초해상도를 이용한 비디오 인코딩
KR20120000485A (ko) 예측 모드를 이용한 깊이 영상 부호화 장치 및 방법
CN103503460A (zh) 视频译码中的运动向量预测
JP6027143B2 (ja) 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、および画像復号プログラム
RU2661331C2 (ru) Способ и устройство кодирования изображений с эффектом глубины при кодировании видео
CN113923455A (zh) 一种双向帧间预测方法及装置
TWI499277B (zh) 多視點畫像編碼方法、多視點畫像解碼方法、多視點畫像編碼裝置、多視點畫像解碼裝置及這些程式
KR101883265B1 (ko) 패치 시프팅을 통해 벡터 양자화 에러를 감소시키기 위한 방법들 및 장치
KR100775871B1 (ko) 영상합성기반 다시점 동영상 부호화 및 복호화를 수행하기위한 방법 및 장치
US20230199175A1 (en) Method and device for subpicture-based image encoding/decoding, and method for transmitting bitstream
KR102611845B1 (ko) 옵티컬 플로 기반 비디오 인터 예측
JP2016537871A (ja) マルチビュービデオのデコード方法及び装置
KR101386651B1 (ko) 다시점 비디오 인코딩 및 디코딩 방법 및 이를 이용한 인코딩 및 디코딩 장치
JP2009296300A (ja) 画像符号化装置および方法
JP4874578B2 (ja) 画像符号化装置
CN106464898B (zh) 用于导出视图间运动合并候选的方法和装置
CN114270833A (zh) 用于在视频/图像编译系统中移除重叠信令的方法和装置
US11132819B2 (en) Method and apparatus for decoding multi-view video information
KR102127212B1 (ko) 다시점 영상 정보의 복호화 방법 및 장치
JP2013106273A (ja) 画像処理装置、及び画像処理方法
KR101220097B1 (ko) 분산비디오 코덱 장치 및 이를 이용한 전경 영역 분할 보조정보 생성 방법

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant