KR100603601B1 - 다시점 콘텐츠 생성 장치 및 그 방법 - Google Patents

다시점 콘텐츠 생성 장치 및 그 방법 Download PDF

Info

Publication number
KR100603601B1
KR100603601B1 KR1020040090526A KR20040090526A KR100603601B1 KR 100603601 B1 KR100603601 B1 KR 100603601B1 KR 1020040090526 A KR1020040090526 A KR 1020040090526A KR 20040090526 A KR20040090526 A KR 20040090526A KR 100603601 B1 KR100603601 B1 KR 100603601B1
Authority
KR
South Korea
Prior art keywords
image
camera
depth
view
output
Prior art date
Application number
KR1020040090526A
Other languages
English (en)
Other versions
KR20060041060A (ko
Inventor
장은영
엄기문
김대희
안충현
이수인
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020040090526A priority Critical patent/KR100603601B1/ko
Priority to PCT/KR2005/002408 priority patent/WO2006049384A1/en
Priority to US11/718,796 priority patent/US20070296721A1/en
Publication of KR20060041060A publication Critical patent/KR20060041060A/ko
Application granted granted Critical
Publication of KR100603601B1 publication Critical patent/KR100603601B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/133Equalising the characteristics of different image components, e.g. their average brightness or colour balance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • H04N13/359Switching between monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/003Aspects relating to the "2D+depth" image format
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/005Aspects relating to the "3D+depth" image format

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

1. 청구범위에 기재된 발명이 속한 기술분야
본 발명은 다시점 콘텐츠 생성 장치 및 그 방법에 관한 것임.
2. 발명이 해결하려고 하는 기술적 과제
본 발명은 양안식 및 다안식 입체 영상을 생성함으로써, 입체감과 공간감을 제공하고, 깊이 기반 객체 삽입, 움직임 객체 대치, 배경 대치, 시점 선택 등의 인터랙션을 지원하는 다시점 컨텐츠 생성 장치 및 그 방법을 제공하는데 그 목적이 있음.
3. 발명의 해결방법의 요지
본 발명은, 외부로부터 입력된 다시점 영상 및 깊이/변이 지도 데이터에 대하여 보정 및 잡음 제거 필터링하기 위한 전처리 수단; 카메라 기본 정보 및 상기 전처리 수단으로부터 출력된 보정된 다시점 영상을 이용하여 카메라 파라미터를 계산하고, 에피폴라 영상 보정을 수행하기 위한 카메라 보정 수단; 상기 카메라 보정 수단으로부터 출력된 카메라 파라미터 및 에피폴라 보정된 다시점 영상과, 상기 전처리 수단으로부터 출력된 전처리된 깊이/변이 지도를 이용하여 장면 모델을 생성하기 위한 장면 모델 생성 수단; 상기 전처리 수단으로부터 출력된 보정된 다시점 영상, 상기 카메라 보정 수단으로부터 출력된 카메라 파라미터 및 후단의 사용자 인터페이스 수단으로부터 출력된 관심 객체 설정 정보를 이용하여, 객체 바이너리 마스크, 객체 움직임 벡터 및 객체 중심점 위치를 추출하기 위한 객체 추출/추적 수단; 배경 영상(실사)에 대한 조명 정보를 추출하고, 실사 영상 내에 기 제작된 컴퓨터 그래픽을 삽입할 때 추출한 조명 정보를 적용하며, 상기 기 제작된 컴퓨터 그래픽과 실사를 합성하기 위한 실사/컴퓨터 그래픽 합성 수단; 상기 카메라 보정 수단으로부터 출력된 카메라 파라미터, 후단의 사용자 인터페이스 수단으로부터 출력된 사용자 선택 시점 정보 및 상기 사용자 선택 시점 정보에 해당하는 다시점 영상을 이용하여 스테레오/다안식 영상 및 중간 시점 영상을 생성하기 위한 임의 시점 영상 생성 수단; 및 상기 전처리 수단, 카메라 보정 수단, 장면 모델링 수단, 객체 추출/추적 수단, 실사/컴퓨터 그래픽 합성 수단 및 임의 시점 영상 생성 수단으로 사용자의 요구 사항을 내부 자료로 변환하여 전달하기 위한 사용자 인터페이스 수단을 포함한다.
4. 발명의 중요한 용도
본 발명은 다시점 입체 영상 방송 등에 이용됨.
다시점, 콘텐츠, 깊이/변이 지도, 입체 영상, 장면 모델, 객체 추출

Description

다시점 콘텐츠 생성 장치 및 그 방법{Apparatus and Method for Production Multi-view Contents}
도 1은 본 발명에 따른 다시점 콘텐츠 생성 장치의 일실시예 구성도,
도 2는 도 1의 영상 및 깊이/변이 지도 전처리부의 상세한 일실시예 구성도,
도 3은 도 1의 카메라 보정부의 상세한 일실시예 구성도,
도 4는 도 1의 장면 모델링부의 상세한 일실시예 구성도,
도 5는 도 1의 객체 추출 및 추적부의 상세한 일실시예 구성도,
도 6는 도 1의 실사/컴퓨터 그래픽 합성부의 상세한 일실시예 구성도,
도 7은 도 1의 임의 시점 영상 생성부의 상세한 일실시예 구성도,
도 8은 본 발명에 따른 다시점 콘텐츠 생성 방법의 일실시예 흐름도이다.
* 도면의 주요 부분에 대한 부호의 설명
100 : 영상 및 깊이/변이 지도 전처리부 200 : 카메라 보정부
300 : 장면 모델링부 400 : 객체 추출 및 추적부
500 : 실사/컴퓨터 그래픽 합성부 600 : 임의 시점 영상 생성부
본 발명은 다시점 콘텐츠 생성 장치 및 그 방법에 관한 것으로, 더욱 상세하게는 움직임 객체에 대한 치환, 객체의 깊이 기반 삽입, 현재 배경을 다른 배경으로의 치환, 사용자 요구에 따른 뷰 제공 등의 기능을 지원하며, 실사 영상과 컴퓨터 그래픽을 합성할 때, 실사에 적용된 조명정보를 컴퓨터 그래픽에 적용하여 보다 사실감 있는 영상을 제공하기 위한, 다시점 입체 영상 방송 및 서비스를 위한 콘텐츠 생성 장치 및 그 방법에 관한 것이다.
일반적으로 콘텐츠 생성 시스템은 카메라의 영상 획득에서부터 획득한 영상을 가공하여 전송이나 저장을 위한 형식으로 변환하기 전까지의 과정을 다룬다. 즉, 다양한 편집 도구 및 저작 도구를 이용하여 카메라로 촬영한 영상에 대한 편집, 특수 효과 삽입, 자막 처리 등을 수행하는 과정을 다룬다.
이러한 콘텐츠 생성 시스템 중의 하나인 가상 스튜디오(Virtual Studio)는 블루 스크린에서 촬영된 배우의 영상과 미리 준비된 2차원 배경이나 3차원 컴퓨터 그래픽을 크로마키(Chroma-Key)에 의해 합성한다.
따라서 배우는 파란색 옷을 입고 촬영할 수 없는 제약을 가지고 있으며, 단순한 색상의 치환이기 때문에 깊이에 따른 장면 연출에 있어 제약이 있다. 또한 배경이 3차원 컴퓨터 그래픽일지라도 단순히 파란색 대신에 배경을 삽입하는 방식이므로 복수의 배우와 복수의 컴퓨터 그래픽 모델이 중첩되는 상황은 연출하기가 어 렵다.
또한, 기존의 2차원 콘텐츠 생성 시스템은 하나의 시점으로 구성된 영상을 제공하기 때문에 시청자에게 입체감을 줄 수 있는 스테레오스코픽(Sterescopic) 영상이나 다안식(Multi-View) 영상을 제공할 수 없고, 아울러 시청자가 원하는 다양한 시점의 영상도 제공할 수 없다.
이와 같이 기존의 방송국에서 사용하는 가상 스튜디오 시스템이나 영상 콘텐츠 저작 도구와 같은 콘텐츠 생성 시스템은 3차원 컴퓨터 그래픽 모델을 사용한다 할지라도 2차원적인 영상을 표현함으로써, 입체감이나 공간감이 떨어지는 문제점이 있다.
즉, 현재 방송에 사용되는 콘텐츠 생성 및 제작에 관련된 시스템은 기존의 2D(Dimension) 방송을 위해 개발되었으므로 향후 등장할 다시점 입체 영상 서비스를 지원하기 위한 콘텐츠를 생성하는 데 한계가 있다.
본 발명은 상기 문제점을 해결하기 위하여 제안된 것으로, 양안식 및 다안식 입체 영상을 생성함으로써, 입체감과 공간감을 제공하고, 깊이 기반 객체 삽입, 움직임 객체 대치, 배경 대치, 요구 시점 뷰 제공 등의 인터랙션을 지원하는 다시점 컨텐츠 생성 장치 및 그 방법을 제공하는데 그 목적이 있다.
본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 발명의 실시예에 의해 보다 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.
상기 목적을 달성하기 위한 본 발명의 장치는, 외부로부터 입력된 다시점 영상 및 깊이/변이 지도 데이터에 대하여 보정 및 잡음 제거 필터링하기 위한 전처리 수단; 카메라 기본 정보 및 상기 전처리 수단으로부터 출력된 보정된 다시점 영상을 이용하여 카메라 파라미터를 계산하고, 에피폴라 영상 보정을 수행하기 위한 카메라 보정 수단; 상기 카메라 보정 수단으로부터 출력된 카메라 파라미터 및 에피폴라 보정된 다시점 영상과, 상기 전처리 수단으로부터 출력된 전처리된 깊이/변이 지도를 이용하여 장면 모델을 생성하기 위한 장면 모델 생성 수단; 상기 전처리 수단으로부터 출력된 보정된 다시점 영상, 상기 카메라 보정 수단으로부터 출력된 카메라 파라미터 및 후단의 사용자 인터페이스 수단으로부터 출력된 관심 객체 설정 정보를 이용하여, 객체 바이너리 마스크, 객체 움직임 벡터 및 객체 중심점 위치를 추출하기 위한 객체 추출/추적 수단; 배경 영상(실사)에 대한 조명 정보를 추출하고, 실사 영상 내에 기 제작된 컴퓨터 그래픽을 삽입할 때 추출한 조명 정보를 적용하며, 상기 기 제작된 컴퓨터 그래픽과 실사를 합성하기 위한 실사/컴퓨터 그래픽 합성 수단; 상기 카메라 보정 수단으로부터 출력된 카메라 파라미터, 후단의 사용자 인터페이스 수단으로부터 출력된 사용자 선택 시점 정보 및 상기 사용자 선택 시점 정보에 해당하는 다시점 영상을 이용하여 스테레오/다안식 영상 및 중간 시점 영상을 생성하기 위한 임의 시점 영상 생성 수단; 및 상기 전처리 수단, 카메라 보정 수단, 장면 모델링 수단, 객체 추출/추적 수단, 실사/컴퓨터 그래픽 합성 수단 및 임의 시점 영상 생성 수단으로 사용자의 요구 사항을 내부 자료로 변환하여 전달하기 위한 사용자 인터페이스 수단을 포함하는 것을 특징으로 한다.
또한, 본 발명의 방법은, 외부로부터 입력된 다시점 영상 및 깊이/변이 지도 데이터에 대하여 보정 및 잡음 제거 필터링하는 전처리 단계; 카메라 기본 정보 및 보정된 다시점 영상을 이용하여 카메라 파라미터를 계산하고, 에피폴라 영상 보정을 수행하는 카메라 보정 단계; 계산된 카메라 파라미터 및 에피폴라 보정된 다시점 영상과, 전처리된 깊이/변이 지도를 이용하여 장면 모델을 생성하는 장면 모델 생성 단계; 관심 객체 설정 정보, 보정된 다시점 영상 및 상기 카메라 파라미터를 이용하여 객체 바이너리 마스크, 객체 움직임 벡터 및 객체 중심점 위치를 추출하는 객체 추출/추적 단계; 배경 영상(실사)에 대한 조명 정보를 추출하고, 실사 영상 내에 기 제작된 컴퓨터 그래픽을 삽입할 때 추출한 조명 정보를 적용하며, 상기 기 제작된 컴퓨터 그래픽과 실사를 합성하는 실사/컴퓨터 그래픽 합성 단계; 및 사용자 선택 시점, 사용자 선택 시점에 해당하는 다시점 영상 및 상기 카메라 파라미터를 이용하여 스테레오/다안식 영상 및 중간 시점 영상을 생성하는 임의 시점 영상 생성 단계를 포함하는 것을 특징으로 한다.
상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해 질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일실시예를 상세히 설명하기로 한다.
도 1은 본 발명에 따른 다시점 콘텐츠 생성 장치의 일실시예 구성도이다.
도시된 바와 같이, 본 발명에 따른 다시점 콘텐츠 생성 장치는 영상 및 깊이/변이 지도 전처리부(100), 카메라 보정부(200), 장면 모델링부(300), 객체 추출 및 추적부(400), 실사/컴퓨터 그래픽 합성부(500), 임의 시점 영상 생성부(600) 및 사용자 인터페이스부(700)를 포함한다.
영상 및 깊이(Depth)/변이(Disparity) 지도(Map) 전처리부(100)는 외부의 다시점 카메라(2 시점 이상)로부터 다시점 영상을 입력받아, 다시점 영상들 간의 크기와 칼라가 서로 다를 경우 이를 보정하여 다시점 영상들 간의 크기와 색을 동일하도록 한다.
또한, 영상 및 깊이/변이 지도 전처리부(100)는 외부의 깊이 획득 장치로부터 깊이/변이 지도 데이터를 입력받아, 깊이/변이 지도 데이터에 대한 잡음 제거를 위한 필터링을 수행한다.
이 때, 영상 및 깊이/변이 지도 전처리부(100)로 입력되는 데이터는 2 시점 이상의 다시점 영상, 또는 2 시점 이상의 다시점 영상과 한 시점 이상의 깊이/변이 지도 형태가 모두 가능하다.
카메라 보정부(200)는 각 시점에서 촬영된 다시점 영상, 특징점 집합, 카메라 기본 정보 등을 이용하여 각 시점에 대한 카메라의 내부 및 외부 파라미터를 계산하여 저장한다. 여기서, 통상 다시점 영상으로 카메라 보정 패턴을 포함한 영상을 사용하거나, 만약 카메라 보정 패턴을 포함하지 않는 영상에서는 특징점 추출 기법을 이용하여 추출된 특징점을 이용한다.
또한, 카메라 보정부(200)는 상기 특징점 집합 및 상기 카메라 파라메터를 이용하여 두 쌍의 스테레오 영상에 대해 에피폴라 선(Epipolar Line)을 영상 스캔 라인 (Scan Line)과 일치시키는 영상 보정(Image Rectification) 과정을 수행한다. 이러한 영상 보정 과정은 보다 정확한 변이 추정(Disparity Estimation)을 위해 하나의 영상을 기준으로 다른 시점의 영상을 변환하거나 상호 변환 과정을 수행한다.
이 때, 카메라 보정을 위한 특징점 추출은 카메라 보정 패턴 촬영 영상을 이용하거나, 영상 내에서 특징점 추출 기법을 이용하여 추출할 수 있다.
장면 모델링부(300)는 카메라 보정부(200)로부터 출력된 카메라 내·외부 파라미터 및 에피폴라 보정된 다시점 영상을 이용하여 변이 지도를 생성하고, 생성된 변이 지도 및 전처리된 깊이/변이 지도을 융합하여 장면 모델을 생성한다.
또한, 장면 모델링부(300)는 후술하는 객체 추출/추적부(400)로부터 출력된 움직임 객체의 바이너리 마스크 정보를 이용하여 각 움직임 객체에 대한 깊이 정보를 가진 마스크를 생성한다
객체 추출 및 추적부(400)는 영상 및 깊이/변이 지도 전처리부(100)로부터 출력된 다시점 영상 및 깊이/변이 지도와, 카메라 보정부(200)로부터 출력된 각 카메라의 정보 및 위치 관계와, 장면 모델링부(300)로부터 출력된 장면 모델과, 사용자 입력 정보를 이용하여 움직임 객체의 바이너리 마스크 정보를 추출하고 영상 좌표계 및 월드 좌표계에 대한 움직임 벡터를 추출한다. 이 때, 상기 움직임 객체는 복수 개가 될 수 있으며, 각 객체는 개별 식별자를 갖는다.
실사/컴퓨터 그래픽 합성부(500)는 기 제작된 컴퓨터 그래픽 객체와 실사의 합성, 객체 추출/추적부(400)로부터 출력된 객체의 3차원 위치/궤적에 컴퓨터 그래픽 객체 삽입, 배경을 다른 실사/CG 배경으로 대치하는 기능을 수행한다.
또한, 실사/컴퓨터 그래픽 합성부(500)는 컴퓨터 그래픽 객체를 삽입할 배경 영상(실사)에 대한 조명 정보를 추출하고, 실사 영상 내에 컴퓨터 그래픽 객체를 삽입할 때 상기 추출된 조명 정보를 적용하여 렌더링한다.
임의 시점 영상 생성부(600)는 전처리된 다시점 영상, 잡음 제거된 깊이/변이 지도, 장면 모델, 카메라 파라미터를 이용하여 사용자가 선택한 시점에 대한 2차원 영상, 스테레오 영상 및 다안식 영상을 생성한다. 이 때, 사용자가 3D(Dimension) 모드를 선택했을 경우에는 선택 시점에 대한 스테레오 영상 또는 다안식 영상 합성을 수행한다. 디스플레이 할 때는 선택된 2D/3D 모드에 따라 2차원 영상 또는 3차원 영상을 디스플레이 한다. 또한, 하나의 시점 영상과 그에 해당하는 깊이/변이 지도를 이용하여 DIBR(Depth Image Based Rendering) 기반의 스테레오 영상 및 다안식 영상 등의 입체 영상을 생성한다.
사용자 인터페이스부(700)는 시점 변경, 객체 선택/대치, 배경 대치, 2D/3D 전환, 파일 및 화면 입출력 등 다양한 사용자의 요구를 내부 자료 구조로 변환하여 이를 각 처리 부로 전달하는 인터페이스를 제공하며, 시스템의 메뉴 운용 및 전체적인 제어 기능을 수행한다. 이 때, 사용자는 그래픽 사용자 인터페이스(GUI:Graphic User Interface)를 통해 현재 처리되고 있는 과정에 대한 진행 상황을 확인할 수 있다.
도 2는 도 1의 영상 및 깊이/변이 지도 전처리부의 상세한 일실시예 구성도이다.
도시된 바와 같이, 도 1의 영상 및 깊이/변이 지도 전처리부(100)는 깊이/변이 전처리부(110), 크기 보정부(120) 및 색 보정부(130)를 포함한다.
깊이/변이 전처리부(110)는 외부의 깊이 획득 장치로부터 깊이/변이 지도 데이터를 입력받아, 깊이/변이 지도 데이터에 대한 잡음 제거를 위한 필터링을 수행하여 잡음이 제거된 깊이/변이 지도를 출력한다.
크기 보정부(120)는 외부의 다시점 카메라(2 시점 이상)로부터 다시점 영상을 입력받아, 다시점 영상들 간의 크기가 서로 다를 경우 다시점 영상들 간의 크기가 동일하도록 보정하여 출력한다. 또한, 복수 영상이 한 프레임으로 입력될 경우 입력된 복수 영상을 동일 크기의 영상으로 분리한다.
색 보정부(130)는 외부의 다시점 카메라로부터 입력받은 다시점 영상 간의 색이 칼라 온도(color temperatrue), 화이트 밸런스(white balance), 블랙 밸런스(black balance) 등의 차이에 의해 일치하지 않을 경우, 색 보정 알고리즘을 이용 하여 다시점 영상 간의 색이 일치하도록 보정하여 출력한다. 이 때, 어느 영상을 기준으로 색 보정을 수행할 것인지는 입력 영상의 특성에 따라 달라질 수 있다.
도 3은 도 1의 카메라 보정부의 상세한 일실시예 구성도이다.
도시된 바와 같이, 도 1의 카메라 보정부(200)는 카메라 파라미터 계산부(210) 및 에피폴라 영상 보정부(220)를 포함한다.
카메라 파라미터 계산부(210)는 카메라(CCD) 기본 정보와 영상 및 깊이/변이 지도 전처리부(100)로부터 출력된 다시점 영상을 이용하여 카메라의 내부 및 외부 파라미터를 계산하여 출력하고, 계산한 파라미터를 저장한다. 이 때, 카메라 파라미터 계산부(210)는 카메라 내외부 파라미터를 계산하기 위하여 입력 영상으로부터 특징점 추출을 수행하는 기능(자동/반자동)을 지원할 수 있으며, 또한 사용자 인터페이스부(700)로부터 특징점 집합을 입력받을 수도 있다.
에피폴라 영상 보정부(220)는 상기 카메라 파라미터 계산부(210)로부터 출력된 카메라의 내외부 파라미터를 이용하여 기준 시점의 영상과 그 외 시점 영상들간의 에피폴라 영상 보정을 수행하고, 상기 에피폴라 보정된 다시점 영상을 출력한다.
도 4는 도 1의 장면 모델링부의 상세한 일실시예 구성도이다.
도시된 바와 같이, 도 1의 장면 모델링부(300)는 변이 지도 추출부(310), 변이/깊이 지도 융합부(320), 객체 깊이 마스크 생성부(330) 및 3차원 포인트 클라우 드 생성부(340)를 포함한다.
변이 지도 추출부(310)는 카메라 보정부(200)로부터 출력된 카메라의 내외부 파라미터 및 에피폴라 보정된 다시점 영상을 이용하여 복수 개의 변이 지도를 생성하여 출력하고, 이 때, 추가로 깊이/변이 전처리부(110)로부터 전처리된 깊이/변이 지도를 입력받으면, 개선된 변이/깊이 지도를 획득하기 위한 초기 조건 및 변이 탐색 영역을 결정하는데, 상기 전처리된 깊이/변이 지도를 이용한다.
변이/깊이 지도 융합부(320)는 상기 변이 지도 추출부(310)로부터 출력된 변이 지도, 깊이/변이 전처리부(110)로부터 출력된 전처리된 깊이/변이 지도 및 에피폴라 영상 보정부(220)로부터 출력된 에피폴라 보정된 다시점 영상을 융합하여 개선된 깊이 지도, 즉 장면 모델을 생성하여 출력한다.
객체 깊이 마스크 생성부(330)는 객체 추출 및 추적부(400)로부터 출력된 움직임 객체의 바이너리 마스크 정보 및 상기 변이/깊이 지도 융합부(320)로부터 출력된 장면 모델을 이용하여 각 움직임 객체에 대한 깊이 정보를 가진 객체 마스크를 생성하여 출력한다.
3차원 포인트 클라우드 생성부(340)는 카메라 파라미터 계산부(210)로부터 출력된 카메라의 내외부 파라미터를 이용하여 상기 객체 깊이 마스크 생성부(330)로부터 출력된 깊이 정보를 가진 객체 마스크 또는 상기 변이/깊이 지도 융합부(320)로부터 출력된 장면 모델을 3차원 공간 상의 위치로 변환시킴으로써, 장면 또는 객체의 3차원 포인트 클라우드(Point Cloud) 및 메쉬 모델을 생성하여 출력한다.
도 5는 도 1의 객체 추출 및 추적부의 상세한 일실시예 구성도이다.
도시된 바와 같이, 도 1의 객체 추출 및 추적부(400)는 객체 추출부(410), 객체 움직임 벡터 추출부(420) 및 3차원 좌표 변환부(430)를 포함한다.
객체 추출부(410)는 영상 및 깊이/변이 지도 전처리부(100)로부터 출력된 다시점 영상과 사용자 인터페이스부(700)로부터 출력된 관심 객체 설정 정보를 이용하여 객체의 바이너리 마스크(실루엣)를 추출하고, 다수 객체인 경우 객체간에 서로 구분하기 위해 식별자를 부여한다.
이 때, 깊이/변이 전처리부(110)로부터 전처리된 깊이/변이 지도 또는 변이/깊이 지도 융합부(320)로부터 장면 모델이 추가로 입력되면 상기 깊이 정보와 영상 정보를 동시에 이용하여 객체의 바이너리 마스크를 추출한다.
객체 움직임 벡터 추출부(420)는 상기 객체 추출부(410)로부터 출력된 객체 바이너리 마스크의 중심점을 추출하고, 상기 중심점의 영상 좌표를 각 프레임마다 계산하여 저장하고 출력한다. 이 때, 추적하는 객체가 복수 개일 경우에는 객체에 대한 고유 식별자를 가지고 추적한다. 객체가 가려지는 경우에는 기준 시점 이외 다른 시점 영상들을 추가적으로 이용한다. 이 때, 관심 객체의 시간적 변화(움직임 벡터)를 이용하여 해당 객체 위치를 추적한다.
3차원 좌표 변환부(430)는 영상 및 깊이/변이 지도 전처리부(100)로부터 출력된 전처리된 깊이/변이 지도 또는 장면 모델링부(300)로부터 출력된 장면 모델과, 카메라 보정부(200)로부터 출력된 카메라의 내외부 파라미터를 이용하여 상기 객체 움직임 벡터 추출부(420)로부터 출력된 객체 움직임 벡터의 영상 좌표를 3차 원 월드 좌표로 변환하여 출력한다.
도 6는 도 1의 실사/컴퓨터 그래픽 합성부의 상세한 일실시예 구성도이다.
도시된 바와 같이, 도 1의 실사/컴퓨터 그래픽 합성부(500)는 조명 정보 추출부(510), 컴퓨터 그래픽 렌더링부(520) 및 영상 합성부(530)를 포함한다.
조명 정보 추출부(510)는 실사 영상에 적용된 조명 정보를 추출하기 위하여 사용자 인터페이스부(700)로부터 출력된 다중 노출 배경 영상과 이에 대한 노출 정보를 이용하여 HDR Radiance Map과 카메라 응답 함수를 계산하여 출력한다. 상기 HDR Radiance Map과 카메라 응답 함수는 컴퓨터 그래픽 객체를 실사 영상에 삽입할 때, 실재감(Realism)을 증대시키기 위하여 사용된다.
컴퓨터 그래픽 렌더링부(520)는 사용자 인터페이스부(700)로부터 출력된 시점 정보, 컴퓨터 그래픽(CG:Computer Graphic) 모델 및 컴퓨터 그래픽 삽입 위치와, 카메라 보정부(200)로부터 출력된 카메라의 내외부 파라미터와, 객체 추출 및 추적부(400)로부터 출력된 객체 움직임 벡터 및 중심점 위치를 이용하여 컴퓨터 그래픽 객체 모델을 렌더링하여 출력한다.
이 때, 컴퓨터 그래픽 렌더링부(520)는 컴퓨터 그래픽 객체 모델이 삽입될 실사 영상과 부합되도록 크기와 시점을 조절한다. 또한, 상기 조명 정보 추출부(510)로부터 출력된 실사 조명 정보를 가지고 있는 HDR Radiance Map과 컴퓨터 그래픽 모델의 BRDF(Bidirectional Reflectance Distribution Function) 계수를 이용하여 컴퓨터 그래픽 객체에 조명 효과를 적용한다.
영상 합성부(530)는 현재 시점에서의 실사 영상, 장면 모델링부(300)로부터 출력된 장면 모델, 객체 추출 및 추적부(400)로부터 출력된 바이너리 객체 마스크, 사용자 인터페이스부(700)로부터 출력된 객체 삽입 위치 및 상기 컴퓨터 그래픽 렌더링부(520)로부터 출력된 렌더링된 컴퓨터 그래픽 영상을 이용하여, 사용자가 원하는 실사 영상 내 위치에 깊이 키(Depth Key) 기반으로 컴퓨터 그래픽 모델을 삽입하여 실사/컴퓨터 그래픽 합성 영상을 생성하여 출력한다.
또한, 영상 합성부(530)는 객체 추출 및 추적부(400)로부터 출력된 객체 바이너리 마스크 및 객체 움직임 벡터를 이용하여 실사 움직임 객체를 컴퓨터 그래픽 객체 모델로 대치하고, 상기 객체 바이너리 마스크를 이용하여 실사 배경을 다른 컴퓨터 그래픽 배경으로 대치한다.
도 7은 도 1의 임의 시점 영상 생성부의 상세한 일실시예 구성도이다.
도시된 바와 같이, 임의 시점 영상 생성부(600)는 DIBR 기반 입체 영상 생성부(610) 및 중간 시점 영상 생성부(620)를 포함한다.
DIBR(Depth Image Based Rendering) 기반 입체 영상 생성부(610)는 카메라 보정부(200)로부터 출력된 카메라의 내외부 파라미터와, 사용자 인터페이스부(700)로부터 출력된 사용자 선택 시점 정보와, 상기 사용자 선택 시점 정보에 해당하는 기준 시점 영상을 이용하여 스테레오 영상 및 다안식 영상을 생성하여 출력한다. 또한, 홀(Hole) 또는 차폐 영역에 대한 처리도 수행한다.
이 때, 상기 기준 시점 영상은 영상 및 깊이/변이 지도 전처리부(100)로부터 출력된 다시점 영상 중 상기 사용자 선택 시점에 해당하는 어느 한 시점의 영상과, 상기 어느 한 시점의 영상에 해당하는 영상 및 깊이/변이 지도 전처리부(100)로부터 출력된 깊이/변이 지도 또는 장면 모델링부(300)로부터 출력된 변이 지도를 의미한다.
중간 시점 영상 생성부(620)는 영상 및 깊이/변이 지도 전처리부(100)로부터 출력된 다시점 영상 및 깊이/변이 지도, 장면 모델링부(300)로부터 출력된 장면 모델 또는 복수의 변이 지도, 카메라 보정부(200)로부터 출력된 카메라 파라미터, 사용자 인터페이스부(700)로부터 출력된 사용자 선택 시점 정보를 이용하여 중간 시점 영상을 생성한다. 이 때, 중간 시점 영상 생성부(620)는 사용자 인터페이스부(700)로부터 출력된 2D/스테레오/다안식 모드 정보에 따라 선택된 형태로 영상을 출력한다. 한편, 내부적으로 생성된 영상에서 빈 영역(hole)이 생길 경우 다른 시점의 칼라 영상 텍스처를 이용하여 숨김 텍스처(Hidden Texture)를 보정한다.
도 8은 본 발명에 따른 다시점 콘텐츠 생성 방법의 일실시예 흐름도이다.
도 8에 도시된 바와 같이, 먼저, 외부로부터 입력된 다시점 영상 및 깊이/변이 지도 데이터를 전처리한다(810). 즉, 입력된 다시점 영상의 크기 및 색을 보정하고, 입력된 깊이/변이 지도 데이터에 대한 잡음 제거를 위한 필터링을 한다.
이 후, 카메라 기본 정보, 보정된 다시점 영상, 특징점 집합 등을 이용하여 카메라의 내외부 파라미터를 계산하고, 계산된 카메라 파라미터를 이용하여 에피폴라 영상 보정을 수행한다(820).
이 후, 계산된 카메라 파라미터 및 에피폴라 보정된 다시점 영상을 이용하여 복수 개의 변이 지도를 생성하고, 생성된 변이 지도 및 전처리된 깊이/변이 지도를 융합하여 장면 모델을 생성한다(830). 이 때, 상기 변이 지도 생성에 전처리된 깊이/변이 지도를 추가적으로 이용할 수 있다. 또한, 후술하는 참조부호 840 단계계에서 추출된 객체 바이너리 마스크 정보와 상기 장면 모델을 이용하여 깊이 정보를 가진 객체 마스크를 생성하고, 상기 계산된 카메라 파라미터를 이용하여 장면/객체의 3차원 포인트 클라우드 및 메쉬 모델을 생성한다.
다음으로, 보정된 다시점 영상, 전처리된 깊이/변이 지도 및 장면 모델 중 적어도 하나와 사용자로부터의 관심 객체 설정 정보를 이용하여 객체의 바이너리 마스크를 추출한다(840).
이 후, 추출된 바이너리 마스크로부터 객체 움직임 벡터 및 중심점 위치를 계산하고, 계산된 움직임 벡터의 영상 좌표를 3차원 월드 좌표로 변환한다(850).
이 후, 상기 전처리된 다시점 영상 및 깊이/변이 지도와 장면 모델 중 적어도 하나와 상기 계산된 카메라 파라미터를 이용하여 사용자가 선택한 시점 및 임의 시점에 대한 스테레오 영상 및 다안식 영상을 생성하여 출력한다(860).
마지막으로, 배경 영상에 대한 조명 정보를 추출하고, 상기 조명 정보 및 사용자로부터의 시점 정보를 이용하여 기 제작된 컴퓨터 그래픽 객체 모델을 렌더링하며, 렌더링된 컴퓨터 그래픽 영상을 사용자로부터의 컴퓨터 그래픽 삽입 위치에 따라 깊이 키(Depth Key) 기반으로 실사 영상과 합성한다(870). 이 때, 조명 정보 추출은 노출을 달리한 여러 장의 영상과 이에 대한 노출 값을 이용하여 배경 영상( 실사)에 대한 조명 정보를 추출하는 것이다.
한편, 어떤 영상에 대해 실사/CG를 합성하고자 할 때는 합성하고자 하는 실사를 먼저 생성하고 CG를 렌더링하는 것이 통상적인 방법이다. 하지만, 계산 복잡도 등으로 인해 CG를 먼저 렌더링하고 시점 영상을 생성하는 경우도 있다. 따라서, 상기 참조부호 860 단계와 870 단계는 서로 순서가 바뀌어도 무방하다.
상술한 바와 같은 본 발명의 방법은 프로그램으로 구현되어 컴퓨터로 읽을 수 있는 형태로 기록매체(씨디롬, 램, 롬, 플로피 디스크, 하드 디스크, 광자기 디스크 등)에 저장될 수 있다. 이러한 과정은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있으므로 더 이상 상세히 설명하지 않기로 한다.
이상에서 설명한 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.
상기와 같은 본 발명은, 전송 시스템 측면에서 사용자가 원하는 다양한 시점의 입체감 있는 영상을 제공하고, 또한 사용자가 원하는 가상 객체를 삽입하거나 가상 물체 합성 등의 인터랙티브한 서비스를 제공할 수 있어, 대화형 양방향 기능 및 입체 영상을 지원하는 방송 시스템을 위한 콘텐츠 제작에 사용될 수 있는 효과 가 있다.
또한, 본 발명은, 제작자 측면에서 콘텐츠를 제작하면서 최적의 카메라 시점 및 장면 구성을 사전에 시험하거나, 3차원 가상 스튜디오 개념으로서 서로 다른 곳에서 촬영된 두 장면을 하나의 장면으로 합성하는 등 제작 방법의 다양성을 제공할 수 있는 효과가 있다.

Claims (14)

  1. 외부로부터 입력된 다시점 영상을 보정하고 깊이/변이 지도 데이터에 대하여 잡음 제거 필터링을 수행하는 전처리 수단;
    카메라 기본 정보 및 상기 전처리 수단으로부터 출력된 보정된 다시점 영상을 이용하여 카메라 파라미터를 계산하고, 상기 보정된 다시점 영상에 대하여 에피폴라 영상 보정을 수행하는 카메라 보정 수단;
    상기 카메라 보정 수단으로부터 출력된 카메라 파라미터 및 에피폴라 보정된 다시점 영상과, 상기 전처리 수단으로부터 출력된 전처리된 깊이/변이 지도를 이용하여 장면 모델을 생성하는 장면 모델 생성 수단;
    상기 전처리 수단으로부터 출력된 보정된 다시점 영상, 상기 카메라 보정 수단으로부터 출력된 카메라 파라미터 및 후단의 사용자 인터페이스 수단으로부터 출력된 관심 객체 설정 정보를 이용하여, 객체 바이너리 마스크, 객체 움직임 벡터 및 객체 중심점 위치를 추출하기 위한 객체 추출/추적 수단;
    배경 영상(실사)에 대한 조명 정보를 추출하고, 실사 영상 내에 기 제작된 컴퓨터 그래픽을 삽입할 때 추출한 조명 정보를 적용하며, 상기 기 제작된 컴퓨터 그래픽과 실사를 합성하기 위한 실사/컴퓨터 그래픽 합성 수단;
    상기 카메라 보정 수단으로부터 출력된 카메라 파라미터, 후단의 사용자 인터페이스 수단으로부터 출력된 사용자 선택 시점 정보 및 상기 사용자 선택 시점 정보에 해당하는 다시점 영상을 이용하여 스테레오/다안식 영상 및 중간 시점 영상을 생성하기 위한 임의 시점 영상 생성 수단; 및
    상기 전처리 수단, 카메라 보정 수단, 장면 모델 생성 수단, 객체 추출/추적 수단, 실사/컴퓨터 그래픽 합성 수단 및 임의 시점 영상 생성 수단으로 사용자의 요구 사항을 내부 자료로 변환하여 전달하기 위한 사용자 인터페이스 수단
    을 포함하는 다시점 콘텐츠 생성 장치.
  2. 제 1 항에 있어서,
    상기 전처리 수단은,
    다시점 영상들 간의 크기가 서로 다를 경우 다시점 영상들 간의 크기가 동일하도록 보정하기 위한 크기 보정부;
    다시점 영상들 간의 색이 일치하지 않을 경우 색 보정 알고리즘을 이용하여 다시점 영상들 간의 색이 일치하도록 보정하기 위한 색 보정부; 및
    깊이/변이 지도 데이터를 필터링하여 잡음을 제거하기 위한 깊이/변이 전처리부
    를 포함하는 다시점 콘텐츠 생성 장치.
  3. 제 1 항에 있어서,
    상기 카메라 보정 수단은,
    카메라 기본 정보와 상기 전처리 수단으로부터 출력된 보정된 다시점 영상을 이용하여 카메라 파라미터를 추출하기 위한 파라미터 계산부; 및
    상기 파라미터 계산 수단으로부터 출력된 카메라 파라미터를 이용하여 상기 전처리 수단으로부터 출력된 다시점 영상에 대한 에피폴라 영상 보정을 수행하기 위한 에피폴라 영상 보정부
    를 포함하는 다시점 콘텐츠 생성 장치.
  4. 제 1 항에 있어서,
    상기 장면 모델 생성 수단은,
    상기 카메라 보정 수단으로부터 출력된 카메라 파라미터 및 에피폴라 보정된 다시점 영상을 이용하여 복수 개의 변이 지도를 생성하기 위한 변이 지도 추출부;
    상기 변이 지도 추출부로부터 출력된 변이 지도 및 상기 전처리 수단으로부터 출력된 깊이/변이 지도를 융합하여 장면 모델을 생성하기 위한 융합부;
    상기 객체 추출/추적 수단으로부터 출력된 객체 바이너리 마스크 정보와 상기 융합부로부터 출력된 장면 모델을 이용하여 깊이 정보를 가진 객체 마스크를 생성하기 위한 객체 깊이 마스크 생성부; 및
    상기 카메라 보정 수단으로부터 출력된 카메라 파라미터를 이용하여 장면/객체의 3차원 포인트 클라우드 및 메쉬 모델을 생성하기 위한 3차원 포인트 클라우드 생성부
    를 포함하는 다시점 콘텐츠 생성 장치.
  5. 제 1 항에 있어서,
    상기 객체 추출/추적 수단은,
    상기 전처리 수단으로부터 출력된 다시점 영상, 전처리된 깊이/변이 지도, 그리고 상기 장면 모델 생성 수단으로부터 출력된 장면 모델 중 적어도 하나와 상기 사용자 인터페이스 수단으로부터 출력된 관심 책체 설정 정보를 이용하여 객체의 바이너리 마스크를 추출하기 위한 객체 추출부;
    상기 객체 추출부로부터 출력된 객체 바이너리 마스크의 중심점을 추출하고, 상기 중심점의 영상 좌표를 각 프레임마다 계산하여 저장하기 위한 객체 움직임 벡터 추출부; 및
    상기 전처리 수단으로부터 출력된 깊이/변이 지도 및 상기 장면 모델 생성부로부터 출력된 장면 모델 중 적어도 하나와 상기 카메라 보정 수단으로부터 출력된 카메라 파라미터를 이용하여 상기 객체 움직임 벡터 추출부로부터 출력된 객체 움직임 벡터의 영상 좌표를 3차원 월드 좌표로 변환하기 위한 3차원 좌표 변환부
    를 포함하는 다시점 콘텐츠 생성 장치.
  6. 제 1 항에 있어서,
    상기 실사/컴퓨터 그래픽 합성 수단은,
    노출을 달리한 여러 장의 영상과 이에 대한 노출 값을 이용하여 배경 영상(실사)에 대한 조명 정보를 추출하기 위한 조명 정보 추출부;
    상기 사용자 인터페이스 수단으로부터의 시점 정보를 이용하여 시점에 따른 컴퓨터 그래픽을 렌더링하기 위한 컴퓨터 그래픽 렌더링부; 및
    상기 사용자 인터페이스 수단으로부터의 컴퓨터 그래픽 삽입 위치에 따라 깊이 키(Depth Key) 기반으로 컴퓨터 그래픽 객체 모델을 실사 영상 내에 삽입하기 위한 영상 합성부
    를 포함하는 다시점 콘텐츠 생성 장치.
  7. 제 1 항에 있어서,
    상기 임의 시점 영상 생성 수단은,
    상기 전처리 수단으로부터의 다시점 영상 및 깊이/변이 지도, 상기 장면 모델 생성 수단으로부터의 장면 모델 중 적어도 하나와 상기 카메라 보정 수단으로부터의 카메라 파라미터를 이용하여 스테레오 영상 및 다안식 영상을 생성하기 위한 입체 영상 생성부;
    상기 전처리 수단으로부터의 다시점 영상 및 깊이/변이 지도와, 상기 장면 모델 생성 수단으로부터의 장면 모델 및 복수의 변이 지도 중 적어도 하나와, 상기 카메라 파라미터 및 상기 사용자 인터페이스 수단으로부터의 사용자 선택 시점 정 보를 이용하여 중간 시점 영상을 생성하기 위한 중간 시점 영상 생성부
    를 포함하는 다시점 콘텐츠 생성 장치.
  8. 외부로부터 입력된 다시점 영상 및 깊이/변이 지도 데이터에 대하여 보정 및 잡음 제거 필터링하는 전처리 단계;
    카메라 기본 정보 및 보정된 다시점 영상을 이용하여 카메라 파라미터를 계산하고, 에피폴라 영상 보정을 수행하는 카메라 보정 단계;
    상기 계산된 카메라 파라미터 및 에피폴라 보정된 다시점 영상과, 전처리된 깊이/변이 지도를 이용하여 장면 모델을 생성하는 장면 모델 생성 단계;
    관심 객체 설정 정보, 상기 보정된 다시점 영상 및 상기 카메라 파라미터를 이용하여 객체 바이너리 마스크, 객체 움직임 벡터 및 객체 중심점 위치를 추출하는 객체 추출/추적 단계;
    배경 영상(실사)에 대한 조명 정보를 추출하고, 실사 영상 내에 기 제작된 컴퓨터 그래픽을 삽입할 때 추출한 조명 정보를 적용하며, 상기 기 제작된 컴퓨터 그래픽과 실사를 합성하는 실사/컴퓨터 그래픽 합성 단계; 및
    사용자 선택 시점, 사용자 선택 시점에 해당하는 다시점 영상 및 상기 카메라 파라미터를 이용하여 스테레오/다안식 영상 및 중간 시점 영상을 생성하는 임의 시점 영상 생성 단계
    를 포함하는 다시점 콘텐츠 생성 방법.
  9. 제 8 항에 있어서,
    상기 전처리 단계는,
    다시점 영상들 간의 크기가 서로 다를 경우 다시점 영상들 간의 크기가 동일하도록 보정하는 크기 보정 단계;
    다시점 영상들 간의 색이 일치하지 않을 경우 색 보정 알고리즘을 이용하여 다시점 영상들 간의 색이 일치하도록 보정하는 색 보정 단계; 및
    깊이/변이 지도 데이터를 필터링하여 잡음을 제거하는 깊이/변이 전처리 단계
    를 포함하는 다시점 콘텐츠 생성 방법.
  10. 제 8 항에 있어서,
    상기 카메라 보정 단계는,
    카메라 기본 정보와 보정된 다시점 영상을 이용하여 카메라 파라미터를 추출하는 파라미터 계산 단계; 및
    계산된 카메라 파라미터를 이용하여 상기 다시점 영상에 대한 에피폴라 영상 보정을 하는 에피폴라 영상 보정 단계
    를 포함하는 다시점 콘텐츠 생성 방법.
  11. 제 8 항에 있어서,
    상기 장면 모델 생성 단계는,
    상기 카메라 보정 단계에서 계산된 카메라 파라미터 및 에피폴라 보정된 다시점 영상을 이용하여 복수 개의 변이 지도를 생성하는 변이 지도 추출 단계;
    상기 변이 지도 추출 단계에서 출력된 변이 지도 및 상기 전처리 단계에서 전처리된 깊이/변이 지도를 융합하여 장면 모델을 생성하는 융합 단계;
    상기 객체 추출/추적 단계에서 추출된 객체 바이너리 마스크 정보와 상기 융합 단계에서 생성된 장면 모델을 이용하여 깊이 정보를 가진 객체 마스크를 생성하는 객체 깊이 마스크 생성 단계; 및
    상기 카메라 보정 단계에서 계산된 카메라 파라미터를 이용하여 장면/객체의 3차원 포인트 클라우드 및 메쉬 모델을 생성하는 3차원 포인트 클라우드 생성 단계
    를 포함하는 다시점 콘텐츠 생성 방법.
  12. 제 8 항에 있어서,
    상기 객체 추출/추적 단계는,
    상기 전처리 단계에서 보정된 다시점 영상, 전처리된 깊이/변이 지도, 그리고 상기 장면 모델 생성 단계에서 생성된 장면 모델 중 적어도 하나와 사용자로부터의 관심 책체 설정 정보를 이용하여 객체의 바이너리 마스크를 추출하는 객체 추 출 단계;
    추출된 객체 바이너리 마스크의 중심점을 추출하고, 상기 중심점의 영상 좌표를 각 프레임마다 계산하여 저장하는 객체 움직임 벡터 추출 단계; 및
    상기 전처리 단계에서 전처리된 깊이/변이 지도 및 상기 장면 모델 생성 단계에서 생성된 장면 모델 중 적어도 하나와 상기 카메라 보정 단계에서 계산된 카메라 파라미터를 이용하여 상기 객체 움직임 벡터 추출 단계에서 출력된 객체 움직임 벡터의 영상 좌표를 3차원 월드 좌표로 변환하는 3차원 좌표 변환 단계
    를 포함하는 다시점 콘텐츠 생성 방법.
  13. 제 8 항에 있어서,
    상기 실사/컴퓨터 그래픽 합성 단계는,
    노출을 달리한 여러 장의 영상과 이에 대한 노출 값을 이용하여 배경 영상(실사)에 대한 조명 정보를 추출하는 조면 정보 추출 단계;
    사용자로부터의 시점 정보를 이용하여 시점에 따른 컴퓨터 그래픽을 렌더링하는 컴퓨터 그래픽 렌더링 단계; 및
    사용자부터의 컴퓨터 그래픽 삽입 위치에 따라 깊이 키(Depth Key) 기반으로 컴퓨터 그래픽 객체 모델을 실사 영상 내에 삽입하는 영상 합성 단계
    를 포함하는 다시점 콘텐츠 생성 방법.
  14. 제 8 항에 있어서,
    상기 임의 시점 영상 생성 단계는,
    상기 전처리 단계에서 전처리된 다시점 영상 및 깊이/변이 지도, 상기 장면 모델 생성 단계에서 생성된 장면 모델 중 적어도 하나와 상기 카메라 보정 단계에서 계산된 카메라 파라미터 및 사용자로부터의 선택 시점 정보를 이용하여 스테레오 영상 및 다안식 영상을 생성하는 입체 영상 생성 단계; 및
    상기 전처리 단계에서 전처리된 다시점 영상 및 깊이/변이 지도와, 상기 장면 모델 생성 단계에서 생성된 장면 모델 및 복수의 변이 지도 중 적어도 하나와, 상기 카메라 파라미터와, 사용자로부터의 선택 시점 정보를 이용하여 중간 시점 영상을 생성하는 중간 시점 영상 생성 단계
    를 포함하는 다시점 콘텐츠 생성 방법.
KR1020040090526A 2004-11-08 2004-11-08 다시점 콘텐츠 생성 장치 및 그 방법 KR100603601B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020040090526A KR100603601B1 (ko) 2004-11-08 2004-11-08 다시점 콘텐츠 생성 장치 및 그 방법
PCT/KR2005/002408 WO2006049384A1 (en) 2004-11-08 2005-07-26 Apparatus and method for producting multi-view contents
US11/718,796 US20070296721A1 (en) 2004-11-08 2005-07-26 Apparatus and Method for Producting Multi-View Contents

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020040090526A KR100603601B1 (ko) 2004-11-08 2004-11-08 다시점 콘텐츠 생성 장치 및 그 방법

Publications (2)

Publication Number Publication Date
KR20060041060A KR20060041060A (ko) 2006-05-11
KR100603601B1 true KR100603601B1 (ko) 2006-07-24

Family

ID=36319365

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020040090526A KR100603601B1 (ko) 2004-11-08 2004-11-08 다시점 콘텐츠 생성 장치 및 그 방법

Country Status (3)

Country Link
US (1) US20070296721A1 (ko)
KR (1) KR100603601B1 (ko)
WO (1) WO2006049384A1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101066550B1 (ko) 2008-08-11 2011-09-21 한국전자통신연구원 가상시점 영상 생성방법 및 그 장치
KR101103511B1 (ko) * 2010-03-02 2012-01-19 (주) 스튜디오라온 평면 영상을 입체 영상으로 변환하는 방법
KR20150010631A (ko) * 2013-07-18 2015-01-28 경희대학교 산학협력단 변이 벡터 예측 방법 및 장치
KR101529820B1 (ko) * 2014-04-01 2015-06-29 한국방송공사 월드 좌표계 내의 피사체의 위치를 결정하는 방법 및 장치
KR20190103296A (ko) * 2017-02-17 2019-09-04 주식회사 소니 인터랙티브 엔터테인먼트 화상 생성 장치, 화상 생성 방법, 컴퓨터 프로그램, 및 기록 매체

Families Citing this family (186)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8396328B2 (en) 2001-05-04 2013-03-12 Legend3D, Inc. Minimal artifact image sequence depth enhancement system and method
US9286941B2 (en) 2001-05-04 2016-03-15 Legend3D, Inc. Image sequence enhancement and motion picture project management system
US9031383B2 (en) 2001-05-04 2015-05-12 Legend3D, Inc. Motion picture project management system
US8897596B1 (en) 2001-05-04 2014-11-25 Legend3D, Inc. System and method for rapid image sequence depth enhancement with translucent elements
US8401336B2 (en) 2001-05-04 2013-03-19 Legend3D, Inc. System and method for rapid image sequence depth enhancement with augmented computer-generated elements
US7542034B2 (en) 2004-09-23 2009-06-02 Conversion Works, Inc. System and method for processing video images
US8130330B2 (en) * 2005-12-05 2012-03-06 Seiko Epson Corporation Immersive surround visual fields
TWI314832B (en) * 2006-10-03 2009-09-11 Univ Nat Taiwan Single lens auto focus system for stereo image generation and method thereof
KR100916588B1 (ko) * 2006-12-02 2009-09-11 한국전자통신연구원 3차원 모션 데이터 생성을 위한 상관 관계 추출 방법과이를 이용한 실사 배경 영상에 인체형 캐릭터의 용이한합성을 위한 모션 캡쳐 시스템 및 방법
KR100918392B1 (ko) * 2006-12-05 2009-09-24 한국전자통신연구원 3d 컨텐츠 저작을 위한 개인형 멀티미디어 스튜디오플랫폼 장치 및 방법
US8655052B2 (en) * 2007-01-26 2014-02-18 Intellectual Discovery Co., Ltd. Methodology for 3D scene reconstruction from 2D image sequences
US8274530B2 (en) 2007-03-12 2012-09-25 Conversion Works, Inc. Systems and methods for filling occluded information for 2-D to 3-D conversion
JP4266233B2 (ja) * 2007-03-28 2009-05-20 株式会社東芝 テクスチャ処理装置
KR100824942B1 (ko) * 2007-05-31 2008-04-28 한국과학기술원 렌티큘러 디스플레이 영상 생성방법 및 그 기록매체
DE102007033239A1 (de) 2007-07-13 2009-01-15 Visumotion Gmbh Verfahren zur Bearbeitung eines räumlichen Bildes
KR100918480B1 (ko) 2007-09-03 2009-09-28 한국전자통신연구원 스테레오 비전 시스템 및 그 처리 방법
US8127233B2 (en) * 2007-09-24 2012-02-28 Microsoft Corporation Remote user interface updates using difference and motion encoding
US8619877B2 (en) * 2007-10-11 2013-12-31 Microsoft Corporation Optimized key frame caching for remote interface rendering
US8121423B2 (en) 2007-10-12 2012-02-21 Microsoft Corporation Remote user interface raster segment motion detection and encoding
US8106909B2 (en) * 2007-10-13 2012-01-31 Microsoft Corporation Common key frame caching for a remote user interface
KR100926127B1 (ko) * 2007-10-25 2009-11-11 포항공과대학교 산학협력단 복수 카메라를 이용한 실시간 입체 영상 정합 시스템 및 그방법
KR20090055803A (ko) * 2007-11-29 2009-06-03 광주과학기술원 다시점 깊이맵 생성 방법 및 장치, 다시점 영상에서의변이값 생성 방법
TWI362628B (en) * 2007-12-28 2012-04-21 Ind Tech Res Inst Methof for producing an image with depth by using 2d image
US8737703B2 (en) * 2008-01-16 2014-05-27 The Charles Stark Draper Laboratory, Inc. Systems and methods for detecting retinal abnormalities
US8718363B2 (en) * 2008-01-16 2014-05-06 The Charles Stark Draper Laboratory, Inc. Systems and methods for analyzing image data using adaptive neighborhooding
KR100950046B1 (ko) * 2008-04-10 2010-03-29 포항공과대학교 산학협력단 무안경식 3차원 입체 tv를 위한 고속 다시점 3차원 입체영상 합성 장치 및 방법
US8149300B2 (en) 2008-04-28 2012-04-03 Microsoft Corporation Radiometric calibration from noise distributions
KR101733443B1 (ko) 2008-05-20 2017-05-10 펠리칸 이매징 코포레이션 이종 이미저를 구비한 모놀리식 카메라 어레이를 이용한 이미지의 캡처링 및 처리
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
WO2009157707A2 (en) * 2008-06-24 2009-12-30 Samsung Electronics Co,. Ltd. Image processing method and apparatus
KR100945307B1 (ko) * 2008-08-04 2010-03-03 에이알비전 (주) 스테레오스코픽 동영상에서 이미지를 합성하는 방법 및장치
EP2328337A4 (en) * 2008-09-02 2011-08-10 Huawei Device Co Ltd 3D VIDEO COMMUNICATION, TRANSMISSION DEVICE, SYSTEM AND IMAGE RECONSTRUCTION, SYSTEM
US8848974B2 (en) * 2008-09-29 2014-09-30 Restoration Robotics, Inc. Object-tracking systems and methods
KR101502365B1 (ko) 2008-11-06 2015-03-13 삼성전자주식회사 삼차원 영상 생성기 및 그 제어 방법
US9225965B2 (en) * 2008-11-07 2015-12-29 Telecom Italia S.P.A. Method and system for producing multi-view 3D visual contents
CA2745392C (en) * 2008-12-18 2016-07-12 Lg Electronics Inc. Method for 3d image signal processing and image display for implementing the same
US8588515B2 (en) * 2009-01-28 2013-11-19 Electronics And Telecommunications Research Institute Method and apparatus for improving quality of depth image
US20110085024A1 (en) * 2009-10-13 2011-04-14 Sony Corporation, A Japanese Corporation 3d multiview display
CN102667911B (zh) * 2009-11-18 2015-12-16 汤姆逊许可证公司 用于具有灵活像差选择的三维内容递送的方法和系统
US8514491B2 (en) 2009-11-20 2013-08-20 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US8817078B2 (en) * 2009-11-30 2014-08-26 Disney Enterprises, Inc. Augmented reality videogame broadcast programming
KR101282196B1 (ko) * 2009-12-11 2013-07-04 한국전자통신연구원 다시점 영상에서 코드북 기반의 전경 및 배경 분리 장치 및 방법
US8520020B2 (en) * 2009-12-14 2013-08-27 Canon Kabushiki Kaisha Stereoscopic color management
US8803951B2 (en) * 2010-01-04 2014-08-12 Disney Enterprises, Inc. Video capture system control using virtual cameras for augmented reality
US9317970B2 (en) * 2010-01-18 2016-04-19 Disney Enterprises, Inc. Coupled reconstruction of hair and skin
US20110222757A1 (en) 2010-03-10 2011-09-15 Gbo 3D Technology Pte. Ltd. Systems and methods for 2D image and spatial data capture for 3D stereo imaging
US20130003128A1 (en) * 2010-04-06 2013-01-03 Mikio Watanabe Image generation device, method, and printer
US8564647B2 (en) * 2010-04-21 2013-10-22 Canon Kabushiki Kaisha Color management of autostereoscopic 3D displays
KR101273531B1 (ko) * 2010-04-21 2013-06-14 동서대학교산학협력단 모션 컨트롤 카메라를 이용한 실사와 cg 합성 애니메이션 제작 방법 및 시스템
JP2011239169A (ja) * 2010-05-10 2011-11-24 Sony Corp 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
US9030536B2 (en) 2010-06-04 2015-05-12 At&T Intellectual Property I, Lp Apparatus and method for presenting media content
US8640182B2 (en) 2010-06-30 2014-01-28 At&T Intellectual Property I, L.P. Method for detecting a viewing apparatus
US8593574B2 (en) 2010-06-30 2013-11-26 At&T Intellectual Property I, L.P. Apparatus and method for providing dimensional media content based on detected display capability
US8933996B2 (en) * 2010-06-30 2015-01-13 Fujifilm Corporation Multiple viewpoint imaging control device, multiple viewpoint imaging control method and computer readable medium
US9787974B2 (en) 2010-06-30 2017-10-10 At&T Intellectual Property I, L.P. Method and apparatus for delivering media content
US8918831B2 (en) 2010-07-06 2014-12-23 At&T Intellectual Property I, Lp Method and apparatus for managing a presentation of media content
US9049426B2 (en) 2010-07-07 2015-06-02 At&T Intellectual Property I, Lp Apparatus and method for distributing three dimensional media content
US9406132B2 (en) 2010-07-16 2016-08-02 Qualcomm Incorporated Vision-based quality metric for three dimensional video
US9032470B2 (en) 2010-07-20 2015-05-12 At&T Intellectual Property I, Lp Apparatus for adapting a presentation of media content according to a position of a viewing apparatus
US9232274B2 (en) 2010-07-20 2016-01-05 At&T Intellectual Property I, L.P. Apparatus for adapting a presentation of media content to a requesting device
US9560406B2 (en) 2010-07-20 2017-01-31 At&T Intellectual Property I, L.P. Method and apparatus for adapting a presentation of media content
US8994716B2 (en) 2010-08-02 2015-03-31 At&T Intellectual Property I, Lp Apparatus and method for providing media content
KR20120017649A (ko) * 2010-08-19 2012-02-29 삼성전자주식회사 디스플레이장치 및 그 제어방법
US8438502B2 (en) 2010-08-25 2013-05-07 At&T Intellectual Property I, L.P. Apparatus for controlling three-dimensional images
US9247212B2 (en) 2010-08-26 2016-01-26 Blast Motion Inc. Intelligent motion capture element
US9401178B2 (en) 2010-08-26 2016-07-26 Blast Motion Inc. Event analysis system
US8941723B2 (en) 2010-08-26 2015-01-27 Blast Motion Inc. Portable wireless mobile device motion capture and analysis system and method
US9940508B2 (en) 2010-08-26 2018-04-10 Blast Motion Inc. Event detection, confirmation and publication system that integrates sensor data and social media
US9604142B2 (en) 2010-08-26 2017-03-28 Blast Motion Inc. Portable wireless mobile device motion capture data mining system and method
US9406336B2 (en) 2010-08-26 2016-08-02 Blast Motion Inc. Multi-sensor event detection system
US8944928B2 (en) 2010-08-26 2015-02-03 Blast Motion Inc. Virtual reality system for viewing current and previously stored or calculated motion data
US9396385B2 (en) 2010-08-26 2016-07-19 Blast Motion Inc. Integrated sensor and video motion analysis method
US9646209B2 (en) 2010-08-26 2017-05-09 Blast Motion Inc. Sensor and media event detection and tagging system
US9607652B2 (en) 2010-08-26 2017-03-28 Blast Motion Inc. Multi-sensor event detection and tagging system
US9076041B2 (en) 2010-08-26 2015-07-07 Blast Motion Inc. Motion event recognition and video synchronization system and method
US9619891B2 (en) 2010-08-26 2017-04-11 Blast Motion Inc. Event analysis and tagging system
US8994826B2 (en) 2010-08-26 2015-03-31 Blast Motion Inc. Portable wireless mobile device motion capture and analysis system and method
US9626554B2 (en) 2010-08-26 2017-04-18 Blast Motion Inc. Motion capture system that combines sensors with different measurement ranges
US9320957B2 (en) 2010-08-26 2016-04-26 Blast Motion Inc. Wireless and visual hybrid motion capture system
US9418705B2 (en) 2010-08-26 2016-08-16 Blast Motion Inc. Sensor and media event detection system
US9039527B2 (en) 2010-08-26 2015-05-26 Blast Motion Inc. Broadcasting method for broadcasting images with augmented motion data
US8903521B2 (en) 2010-08-26 2014-12-02 Blast Motion Inc. Motion capture element
US8905855B2 (en) 2010-08-26 2014-12-09 Blast Motion Inc. System and method for utilizing motion capture data
US9261526B2 (en) 2010-08-26 2016-02-16 Blast Motion Inc. Fitting system for sporting equipment
US9235765B2 (en) 2010-08-26 2016-01-12 Blast Motion Inc. Video and motion event integration system
KR101708306B1 (ko) * 2010-09-13 2017-02-20 엘지전자 주식회사 이동 단말기 및 그의 3d 이미지 합성방법
US8947511B2 (en) * 2010-10-01 2015-02-03 At&T Intellectual Property I, L.P. Apparatus and method for presenting three-dimensional media content
KR101502757B1 (ko) * 2010-11-22 2015-03-18 한국전자통신연구원 공간컨텐츠 서비스 제공 장치 및 그 방법
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
KR101752690B1 (ko) * 2010-12-15 2017-07-03 한국전자통신연구원 변이 맵 보정 장치 및 방법
US20120162372A1 (en) * 2010-12-22 2012-06-28 Electronics And Telecommunications Research Institute Apparatus and method for converging reality and virtuality in a mobile environment
US8730232B2 (en) * 2011-02-01 2014-05-20 Legend3D, Inc. Director-style based 2D to 3D movie conversion system and method
US20120206578A1 (en) * 2011-02-15 2012-08-16 Seung Jun Yang Apparatus and method for eye contact using composition of front view image
US9407904B2 (en) 2013-05-01 2016-08-02 Legend3D, Inc. Method for creating 3D virtual reality from 2D images
US9241147B2 (en) 2013-05-01 2016-01-19 Legend3D, Inc. External depth map transformation method for conversion of two-dimensional images to stereoscopic images
US9113130B2 (en) 2012-02-06 2015-08-18 Legend3D, Inc. Multi-stage production pipeline system
US9282321B2 (en) 2011-02-17 2016-03-08 Legend3D, Inc. 3D model multi-reviewer system
US9288476B2 (en) 2011-02-17 2016-03-15 Legend3D, Inc. System and method for real-time depth modification of stereo images of a virtual reality environment
JP5158223B2 (ja) * 2011-04-06 2013-03-06 カシオ計算機株式会社 三次元モデリング装置、三次元モデリング方法、ならびに、プログラム
WO2012140917A1 (ja) * 2011-04-14 2012-10-18 株式会社ニコン 画像処理装置および画像処理プログラム
JP2012253643A (ja) * 2011-06-06 2012-12-20 Sony Corp 画像処理装置および方法、並びにプログラム
US8947497B2 (en) 2011-06-24 2015-02-03 At&T Intellectual Property I, Lp Apparatus and method for managing telepresence sessions
US9445046B2 (en) 2011-06-24 2016-09-13 At&T Intellectual Property I, L.P. Apparatus and method for presenting media content with telepresence
US9602766B2 (en) 2011-06-24 2017-03-21 At&T Intellectual Property I, L.P. Apparatus and method for presenting three dimensional objects with telepresence
US9030522B2 (en) 2011-06-24 2015-05-12 At&T Intellectual Property I, Lp Apparatus and method for providing media content
KR20130003135A (ko) * 2011-06-30 2013-01-09 삼성전자주식회사 다시점 카메라를 이용한 라이트 필드 형상 캡처링 방법 및 장치
US8587635B2 (en) 2011-07-15 2013-11-19 At&T Intellectual Property I, L.P. Apparatus and method for providing media services with telepresence
KR101849696B1 (ko) 2011-07-19 2018-04-17 삼성전자주식회사 영상 모델링 시스템에서 조명 정보 및 재질 정보를 획득하는 방법 및 장치
IN2014CN02708A (ko) 2011-09-28 2015-08-07 Pelican Imaging Corp
US9098930B2 (en) * 2011-09-30 2015-08-04 Adobe Systems Incorporated Stereo-aware image editing
US8913134B2 (en) 2012-01-17 2014-12-16 Blast Motion Inc. Initializing an inertial sensor using soft constraints and penalty functions
US9412206B2 (en) 2012-02-21 2016-08-09 Pelican Imaging Corporation Systems and methods for the manipulation of captured light field image data
WO2013154217A1 (en) * 2012-04-13 2013-10-17 Lg Electronics Inc. Electronic device and method of controlling the same
KR20150023907A (ko) 2012-06-28 2015-03-05 펠리칸 이매징 코포레이션 결함있는 카메라 어레이들, 광학 어레이들 및 센서들을 검출하기 위한 시스템들 및 방법들
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
AU2013305770A1 (en) 2012-08-21 2015-02-26 Pelican Imaging Corporation Systems and methods for parallax detection and correction in images captured using array cameras
US20140055632A1 (en) 2012-08-23 2014-02-27 Pelican Imaging Corporation Feature based high resolution motion estimation from low resolution images captured using an array source
EP4307659A1 (en) 2012-09-28 2024-01-17 Adeia Imaging LLC Generating images from light fields utilizing virtual viewpoints
US9979960B2 (en) 2012-10-01 2018-05-22 Microsoft Technology Licensing, Llc Frame packing and unpacking between frames of chroma sampling formats with different chroma resolutions
GB2499694B8 (en) 2012-11-09 2017-06-07 Sony Computer Entertainment Europe Ltd System and method of image reconstruction
KR101992163B1 (ko) * 2012-11-23 2019-06-24 엘지디스플레이 주식회사 입체영상 표시장치와 그 구동방법
US9007365B2 (en) 2012-11-27 2015-04-14 Legend3D, Inc. Line depth augmentation system and method for conversion of 2D images to 3D images
US9547937B2 (en) 2012-11-30 2017-01-17 Legend3D, Inc. Three-dimensional annotation system and method
KR101240497B1 (ko) * 2012-12-03 2013-03-11 복선우 다시점 입체영상 제작방법 및 장치
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
WO2014164550A2 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation System and methods for calibration of an array camera
WO2014159779A1 (en) 2013-03-14 2014-10-02 Pelican Imaging Corporation Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
JP2016524125A (ja) 2013-03-15 2016-08-12 ペリカン イメージング コーポレイション カメラアレイを用いた立体撮像のためのシステムおよび方法
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
US9007404B2 (en) 2013-03-15 2015-04-14 Legend3D, Inc. Tilt-based look around effect image enhancement method
US9438878B2 (en) 2013-05-01 2016-09-06 Legend3D, Inc. Method of converting 2D video to 3D video using 3D object models
WO2014199505A1 (ja) * 2013-06-14 2014-12-18 株式会社日立製作所 映像監視システム、監視装置
KR102153539B1 (ko) * 2013-09-05 2020-09-08 한국전자통신연구원 영상 처리 장치 및 방법
JP6476658B2 (ja) * 2013-09-11 2019-03-06 ソニー株式会社 画像処理装置および方法
US9898856B2 (en) 2013-09-27 2018-02-20 Fotonation Cayman Limited Systems and methods for depth-assisted perspective distortion correction
US10119808B2 (en) 2013-11-18 2018-11-06 Fotonation Limited Systems and methods for estimating depth from projected texture using camera arrays
EP3075140B1 (en) 2013-11-26 2018-06-13 FotoNation Cayman Limited Array camera configurations incorporating multiple constituent array cameras
KR102145965B1 (ko) * 2013-11-27 2020-08-19 한국전자통신연구원 다시점 삼차원 디스플레이에서 부분 영상의 운동 시차 제공 방법 및 그 장치
TWI530909B (zh) * 2013-12-31 2016-04-21 財團法人工業技術研究院 影像合成系統及方法
TWI520098B (zh) * 2014-01-28 2016-02-01 聚晶半導體股份有限公司 影像擷取裝置及其影像形變偵測方法
WO2015134996A1 (en) 2014-03-07 2015-09-11 Pelican Imaging Corporation System and methods for depth regularization and semiautomatic interactive matting using rgb-d images
KR101530826B1 (ko) 2014-08-18 2015-06-24 정관호 360도 공간영상 재생방법 및 그 시스템
EP3201877B1 (en) 2014-09-29 2018-12-19 Fotonation Cayman Limited Systems and methods for dynamic calibration of array cameras
US10306292B2 (en) * 2015-03-24 2019-05-28 Unity IPR ApS Method and system for transitioning between a 2D video and 3D environment
US10675542B2 (en) 2015-03-24 2020-06-09 Unity IPR ApS Method and system for transitioning between a 2D video and 3D environment
US10124230B2 (en) 2016-07-19 2018-11-13 Blast Motion Inc. Swing analysis method using a sweet spot trajectory
US9694267B1 (en) 2016-07-19 2017-07-04 Blast Motion Inc. Swing analysis method using a swing plane reference frame
CA3031040C (en) 2015-07-16 2021-02-16 Blast Motion Inc. Multi-sensor event correlation system
US10974121B2 (en) 2015-07-16 2021-04-13 Blast Motion Inc. Swing quality measurement system
US11577142B2 (en) 2015-07-16 2023-02-14 Blast Motion Inc. Swing analysis system that calculates a rotational profile
US11565163B2 (en) 2015-07-16 2023-01-31 Blast Motion Inc. Equipment fitting system that compares swing metrics
US9609307B1 (en) 2015-09-17 2017-03-28 Legend3D, Inc. Method of converting 2D video to 3D video using machine learning
US10152825B2 (en) 2015-10-16 2018-12-11 Fyusion, Inc. Augmenting multi-view image data with synthetic objects using IMU and image data
US10554956B2 (en) * 2015-10-29 2020-02-04 Dell Products, Lp Depth masks for image segmentation for depth-based computational photography
KR101920113B1 (ko) * 2015-12-28 2018-11-19 전자부품연구원 임의시점 영상생성 방법 및 시스템
US10650602B2 (en) 2016-04-15 2020-05-12 Center Of Human-Centered Interaction For Coexistence Apparatus and method for three-dimensional information augmented video see-through display, and rectification apparatus
WO2017179912A1 (ko) * 2016-04-15 2017-10-19 재단법인 실감교류인체감응솔루션연구단 삼차원 정보증강 비디오 씨쓰루 디스플레이 장치 및 방법, 렉티피케이션 장치
US10368080B2 (en) 2016-10-21 2019-07-30 Microsoft Technology Licensing, Llc Selective upsampling or refresh of chroma sample values
KR101892741B1 (ko) 2016-11-09 2018-10-05 한국전자통신연구원 희소 깊이 지도의 노이즈를 제거하는 장치 및 방법
KR102608466B1 (ko) * 2016-11-22 2023-12-01 삼성전자주식회사 영상 처리 방법 및 영상 처리 장치
US11044464B2 (en) * 2017-02-09 2021-06-22 Fyusion, Inc. Dynamic content modification of image and video based multi-view interactive digital media representations
US10786728B2 (en) 2017-05-23 2020-09-29 Blast Motion Inc. Motion mirroring system that incorporates virtual environment constraints
KR102455632B1 (ko) * 2017-09-14 2022-10-17 삼성전자주식회사 스테레오 매칭 방법 및 장치
CN109785390B (zh) * 2017-11-13 2022-04-01 虹软科技股份有限公司 一种用于图像矫正的方法和装置
CN109785225B (zh) * 2017-11-13 2023-06-16 虹软科技股份有限公司 一种用于图像矫正的方法和装置
US10762702B1 (en) * 2018-06-22 2020-09-01 A9.Com, Inc. Rendering three-dimensional models on mobile devices
KR102632185B1 (ko) 2019-04-22 2024-02-01 레이아 인코포레이티드 시간 다중화 백라이트, 멀티뷰 디스플레이 및 방법
KR102222290B1 (ko) * 2019-05-09 2021-03-03 스크린커플스(주) 혼합현실 환경의 동적인 3차원 현실데이터 구동을 위한 실사기반의 전방위 3d 모델 비디오 시퀀스 획득 방법
JP7273250B2 (ja) 2019-09-17 2023-05-12 ボストン ポーラリメトリックス,インコーポレイティド 偏光キューを用いた面モデリングのためのシステム及び方法
US20220307819A1 (en) 2019-10-07 2022-09-29 Intrinsic Innovation Llc Systems and methods for surface normals sensing with polarization
KR102196032B1 (ko) * 2019-10-21 2020-12-29 한국과학기술원 6 자유도 가상현실을 위한 다중 360 이미지 기반의 자유시점 이미지 합성 방법 및 그 시스템
RU2749749C1 (ru) * 2020-04-15 2021-06-16 Самсунг Электроникс Ко., Лтд. Способ синтеза двумерного изображения сцены, просматриваемой с требуемой точки обзора, и электронное вычислительное устройство для его реализации
MX2022005289A (es) 2019-11-30 2022-08-08 Boston Polarimetrics Inc Sistemas y metodos para segmentacion de objetos transparentes usando se?ales de polarizacion.
US11195303B2 (en) 2020-01-29 2021-12-07 Boston Polarimetrics, Inc. Systems and methods for characterizing object pose detection and measurement systems
JP2023511747A (ja) 2020-01-30 2023-03-22 イントリンジック イノベーション エルエルシー 偏光画像を含む異なる撮像モダリティで統計モデルを訓練するためのデータを合成するためのシステムおよび方法
KR102522892B1 (ko) 2020-03-12 2023-04-18 한국전자통신연구원 가상 시점 영상을 합성하기 위한 입력 영상을 제공하는 카메라 선별 방법 및 장치
US11953700B2 (en) 2020-05-27 2024-04-09 Intrinsic Innovation Llc Multi-aperture polarization optical systems using beam splitters
US12020455B2 (en) 2021-03-10 2024-06-25 Intrinsic Innovation Llc Systems and methods for high dynamic range image reconstruction
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers
CN113902868B (zh) * 2021-11-18 2024-04-26 中国海洋大学 一种基于Wang Cubes的大规模海洋场景创作方法及装置
CN116112657B (zh) * 2023-01-11 2024-05-28 网易(杭州)网络有限公司 图像处理方法、装置、计算机可读存储介质及电子装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0778267A (ja) * 1993-07-09 1995-03-20 Silicon Graphics Inc 陰影を表示する方法及びコンピュータ制御表示システム
JPH07294215A (ja) * 1994-04-25 1995-11-10 Canon Inc 画像処理方法及び装置
US5649173A (en) * 1995-03-06 1997-07-15 Seiko Epson Corporation Hardware architecture for image generation and manipulation
DE69635347T2 (de) * 1995-07-10 2006-07-13 Sarnoff Corp. Verfahren und system zum wiedergeben und kombinieren von bildern
JPH09289655A (ja) * 1996-04-22 1997-11-04 Fujitsu Ltd 立体画像表示方法及び多視画像入力方法及び多視画像処理方法及び立体画像表示装置及び多視画像入力装置及び多視画像処理装置
JP3679512B2 (ja) * 1996-07-05 2005-08-03 キヤノン株式会社 画像抽出装置および方法
US6084590A (en) * 1997-04-07 2000-07-04 Synapix, Inc. Media production with correlation of image stream and abstract objects in a three-dimensional virtual stage
US6160907A (en) * 1997-04-07 2000-12-12 Synapix, Inc. Iterative three-dimensional process for creating finished media content
US6097394A (en) * 1997-04-28 2000-08-01 Board Of Trustees, Leland Stanford, Jr. University Method and system for light field rendering
JP2000209425A (ja) * 1998-11-09 2000-07-28 Canon Inc 画像処理装置及び方法並びに記憶媒体
US6549203B2 (en) * 1999-03-12 2003-04-15 Terminal Reality, Inc. Lighting and shadowing methods and arrangements for use in computer graphic simulations
US6476805B1 (en) * 1999-12-23 2002-11-05 Microsoft Corporation Techniques for spatial displacement estimation and multi-resolution operations on light fields
US7050607B2 (en) * 2001-12-08 2006-05-23 Microsoft Corp. System and method for multi-view face detection
US20040217956A1 (en) * 2002-02-28 2004-11-04 Paul Besl Method and system for processing, compressing, streaming, and interactive rendering of 3D color image data
US7468778B2 (en) * 2002-03-15 2008-12-23 British Broadcasting Corp Virtual studio system
AU2003263557A1 (en) * 2002-10-23 2004-05-13 Koninklijke Philips Electronics N.V. Method for post-processing a 3d digital video signal
US7257272B2 (en) * 2004-04-16 2007-08-14 Microsoft Corporation Virtual image generation
US7292257B2 (en) * 2004-06-28 2007-11-06 Microsoft Corporation Interactive viewpoint video system and process

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101066550B1 (ko) 2008-08-11 2011-09-21 한국전자통신연구원 가상시점 영상 생성방법 및 그 장치
KR101103511B1 (ko) * 2010-03-02 2012-01-19 (주) 스튜디오라온 평면 영상을 입체 영상으로 변환하는 방법
KR20150010631A (ko) * 2013-07-18 2015-01-28 경희대학교 산학협력단 변이 벡터 예측 방법 및 장치
KR101672008B1 (ko) * 2013-07-18 2016-11-03 경희대학교 산학협력단 변이 벡터 예측 방법 및 장치
KR101529820B1 (ko) * 2014-04-01 2015-06-29 한국방송공사 월드 좌표계 내의 피사체의 위치를 결정하는 방법 및 장치
KR20190103296A (ko) * 2017-02-17 2019-09-04 주식회사 소니 인터랙티브 엔터테인먼트 화상 생성 장치, 화상 생성 방법, 컴퓨터 프로그램, 및 기록 매체
KR102214263B1 (ko) * 2017-02-17 2021-02-09 주식회사 소니 인터랙티브 엔터테인먼트 화상 생성 장치, 화상 생성 방법, 컴퓨터 프로그램, 및 기록 매체
US11120613B2 (en) 2017-02-17 2021-09-14 Sony Interactive Entertainment Inc. Image generating device and method of generating image

Also Published As

Publication number Publication date
WO2006049384A1 (en) 2006-05-11
KR20060041060A (ko) 2006-05-11
US20070296721A1 (en) 2007-12-27

Similar Documents

Publication Publication Date Title
KR100603601B1 (ko) 다시점 콘텐츠 생성 장치 및 그 방법
CN108616731B (zh) 一种360度vr全景图形图像及视频实时生成方法
JP7003994B2 (ja) 画像処理装置および方法
AU760594B2 (en) System and method for creating 3D models from 2D sequential image data
CN103426163B (zh) 用于渲染受影响的像素的系统和方法
Daribo et al. A novel inpainting-based layered depth video for 3DTV
CN102834849B (zh) 进行立体视图像的描绘的图像描绘装置、图像描绘方法、图像描绘程序
JP5587894B2 (ja) 深さマップを生成するための方法及び装置
US9094675B2 (en) Processing image data from multiple cameras for motion pictures
Feng et al. Object-based 2D-to-3D video conversion for effective stereoscopic content generation in 3D-TV applications
KR101538947B1 (ko) 실감형 자유시점 영상 제공 장치 및 방법
US20130069942A1 (en) Method and device for converting three-dimensional image using depth map information
JP2006325165A (ja) テロップ発生装置、テロップ発生プログラム、及びテロップ発生方法
JP2019046077A (ja) オブジェクト情報の複数面への投影によって視点映像を合成する映像合成装置、プログラム及び方法
CN111047709A (zh) 一种双目视觉裸眼3d图像生成方法
JP2022031304A (ja) 動画変換システム、動画変換方法及び動画変換プログラム
JPWO2019186787A1 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
CN103634584B (zh) 一种多视点3d视频合成方法
CN111447428A (zh) 平面至立体图像的转换方法、装置、计算机可读存储介质及设备
KR101071911B1 (ko) 3차원 입체 영상 생성 방법
CN113989473B (zh) 一种重新光照的方法和装置
JP2020135525A (ja) 画像処理装置及びプログラム
KR101242764B1 (ko) 입체 3d 영상과 gpu를 이용한 입체 증강현실 영상 생성 장치 및 방법
KR20070073647A (ko) 가상 시점에서의 3차원 영상 생성 방법 및 장치
Shishido et al. Pseudo-Dolly-In Video Generation Combining 3D Modeling and Image Reconstruction

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120710

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20130624

Year of fee payment: 8

LAPS Lapse due to unpaid annual fee