KR100334722B1 - Mpeg 데이터를 이용한 입체영상생성방법 및 그 장치 - Google Patents

Mpeg 데이터를 이용한 입체영상생성방법 및 그 장치 Download PDF

Info

Publication number
KR100334722B1
KR100334722B1 KR1019990054714A KR19990054714A KR100334722B1 KR 100334722 B1 KR100334722 B1 KR 100334722B1 KR 1019990054714 A KR1019990054714 A KR 1019990054714A KR 19990054714 A KR19990054714 A KR 19990054714A KR 100334722 B1 KR100334722 B1 KR 100334722B1
Authority
KR
South Korea
Prior art keywords
image
motion
current
picture
horizontal
Prior art date
Application number
KR1019990054714A
Other languages
English (en)
Other versions
KR20000017775A (ko
Inventor
김만배
강호석
Original Assignee
강호석
주식회사 소프트포디
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 강호석, 주식회사 소프트포디 filed Critical 강호석
Priority to KR1019990054714A priority Critical patent/KR100334722B1/ko
Priority to US09/455,157 priority patent/US6377625B1/en
Publication of KR20000017775A publication Critical patent/KR20000017775A/ko
Application granted granted Critical
Publication of KR100334722B1 publication Critical patent/KR100334722B1/ko

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/167Synchronising or controlling image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0085Motion estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0096Synchronisation or controlling aspects

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

입체영상생성장치는 I, B 및 P화상들(pictures)을 담고있는 MPEG부호화된 데이터를 이용하여 입체영상을 생성한다. 화상추출부는 MPEG부호화된 데이터로부터 각 화상데이터를 추출하고, 동벡터생성부는 추출된 화상데이터로 구성되는 화상내의 매크로블록들에 개별적으로 대응하는 동벡터들을 생성하여 동벡터필드구성부로 공급한다. 화상저장부는 추출된 화상데이터로부터 복원되는 화상을 K개만큼 저장한다. 운동유형결정부는 동벡터필드구성부로부터 공급되는 동벡터들을 이용하여 현재화상에 대응하는 운동유형을 결정한다. 입체영상생성부는 화상저장부에 저장된 이전화상들 및 결정된 운동유형을 이용하여 현재화상에 대응하는 합성화상을 생성하고, 현재화상 및 합성화상을 출력한다. 좌/우측화상결정부는 현재화상 및 합성화상을 수신하며, 수신된 현재화상을 입체영상을 구성하는 좌측화상 및 우측화상중의 어느 한쪽인 것으로 결정하고 합성화상을 다른 한쪽으로 결정한다. 또한, 본 발명은 화상의 운동유형을 정지화상, 비수평운동화상, 수평운동화상 및 고속운동화상중의 하나로 결정하고, 결정된 각 운동유형에 적응적으로 최적의 입체영상을 생성하며 그 입체영상의 좌/우측화상을 결정함으로써, 화상의 다양한 운동유형에서도 자연스럽고 안정된 입체감을 얻을 수 있게 한다.

Description

MPEG 데이터를 이용한 입체영상생성방법 및 그 장치{Method and the apparatus for generating stereoscopic image using MPEG data}
본 발명은 입체영상(stereoscopic image)을 생성하는 방법 및 그 장치에 관한 것으로서, 특히 화상(picture)의 다양한 운동유형에 적응적으로 자연스럽고 안정된 입체감을 갖는 입체영상을 생성하며, 또한 MPEG 비트스트림에서 각I, P, B화상의 동벡터를 추출 및 생성하여 효율적으로 입체영상을 생성하는 방법 및 그 장치에 관한 것이다.
본 발명은 두개의 카메라를 채용한 입체카메라(stereoscopic camera)를 사용하지 않고서도, MPEG-1 CD, MPEG-2 HDTV, MPEG-2 DVD 등의 2차원 동영상을 직접 입체영상으로 볼 수 있게 한다. 더욱이, 본 발명의 상업적 이용범위는 비디오화면을 입체로 시청할 수 있게 하는 모든 분야를 포함하며, 구체적으로는 MPEG을 사용하는 모든 분야 뿐만 아니라, NTSC/PAL/SECAM 등의 아날로그방식 영상신호에도 적용가능하다.
본 발명과 비교되는 종래기술은 일본 산요(SANYO)전기에서 개발한 수정 시간차(Modified Time Differnce:이하에서'MTD'라 함)법이 있다. 또한 한국 삼성전자(주)에서 개발한 수직시차의 수평시차로의 변환방법이 있다. 이러한 종래기술들은 아날로그방식의 영상신호로부터 입체영상을 생성한다. 산요전기가 개발한 MTD법은 1) 움직이는 영역을 추출하며, 2) 움직임의 속도 및 방향을 결정하며, 3) 이 움직임의 속도 및 방향에 의해, 이전의 한 프레임으로부터 지연방향(delay direction) 및 지연시간(delay time)이 결정되고, 4) 결정된 지연방향 및 지연시간에 따라 지연된 영상(delay image)이 어떤 쪽의 눈에 보여지는지가 결정된다.
삼성전자가 개발한 수직시차의 수평시차로의 변환방법은 1) 블록별 움직임을 예측하며, 2) 블록동벡터의 크기를 계산하며, 3) 수직성분을 모두 수평시차값으로 변환하기 위해, 2)에서 구한 크기값을 수평시차값으로 변환하며, 4) 각 블록을 수평시차값만큼 수평이동하고, 5) 수평이동된 블록들을 모아서 합성화상을 생성한다.
하지만, 전술의 MTD방법은 움직임 정보에 의해 이전의 K개 프레임들중에서 하나를 무조건 지연된 영상으로 선택하므로, 한 프레임내의 영역들이 갖는 다른 깊이들은 무시되는 문제점이 있다. 결과적으로, MTD방법에 따른 입체영상을 감상할 때 깊이감이 없게 되므로, 움직이는 물체에 대해서는 입체감이 있으나 움직임이 적은 부분(일례로, 장면의 배경(background))에 대해서는 입체감을 느낄 수 없다.
삼성전자에서 제안한 방법은 이웃 블록들간의 수평시차의 차이에 따른 블록의 수평이동으로 영상의 왜곡이 발생하며, 영상의 다양한 운동유형에 적응적으로 자연스러우면서도 안정된 입체영상을 생성할 수 없었다.
그러므로 전술한 방법들에 의해 생성된 입체영상들은, 영상의 특정 운동유형들에서는 입체감을 얻을 수 없거나 입체영상의 움직임이 자연스럽지 못하다는 문제점을 갖는다.
또한, 전술한 기존의 방법들은 MPEG부호화된 데이터를 이용하여 입체영상을 생성할 때에는, 복호된(decoded) 영상에 다시 운동예측(motion prediction)방법을수행해야 하므로, MPEG 비트스트림에 들어있는 움직임정보를 이용하지 못하며, 따라서 운동예측방법의 재사용으로 인한 알고리즘 및 하드웨어의 복잡성이 증가하는 단점이 있다.
전술한 문제점들을 해결하기 위한 본 발명의 목적은, 영상의 다양한 운동유형에서도 자연스럽고 안정된 입체감을 갖는 최적의 입체영상을 생성하는 방법을 제공함에 있다.
전술한 문제점들을 해결하기 위한 본 발명의 다른 목적은, 영상의 다양한 운동유형에서도 자연스럽고 안정된 입체감을 갖는 최적의 입체영상을 생성하는 장치를 제공함에 있다.
전술한 문제점들을 해결하기 위한 본 발명의 또다른 목적은, 압축부호화된 MPEG 데이터를 이용하여 영상의 다양한 운동유형에서도 자연스럽고 안정된 입체감을 갖는 최적의 입체영상을 효율적으로 생성하는 방법을 제공함에 있다.
전술한 문제점들을 해결하기 위한 본 발명의 또다른 목적은, 압축부호화된 MPEG데이터를 이용하여 영상의 다양한 운동유형에서도 자연스럽고 안정된 입체감을 갖는 최적의 입체영상을 효율적으로 생성하는 장치를 제공함에 있다.
도 1은 본 발명의 바람직한 실시예에 따른, MPEG 데이터의 입체영상생성장치를 나타낸 블럭도,
도 2는 동벡터생성부의 상세구조를 보여주는 블록도,
도 3은 I화상 매크로블록에 겹치는 B화상 매크로블록의 겹침을 보여주는 도면,
도 4는 I화상의 동벡터를 복원하기 위해 사용되는 동벡터의 방향도,
도 5는 운동유형결정부 및 입체영상생성부의 상세구조를 보여주는 블록도,
도 6은 정지화상과 운동화상을 결정하는 흐름도,
도 7은 비수평운동화상과 수평운동화상을 결정하는 흐름도,
도 8은 최대수직퓨젼임계각과 최대수직시차의 관계를 보여주는 도면,
도 9는 고속운동화상을 결정하는 흐름도,
도 10은 최대수평퓨젼임계각과 최대수평시차의 관계를 보여주는 도면,
도 11은 수평운동화상을 입체영상으로 변환하는 방법의 흐름도,
도 12는 화상영역을 일차결정영역과 이차결정영역으로 분할하여 보여주는 도면,
도 13은 비수평운동화상을 입체영상으로 변환하는 방법의 흐름도,
도 14는 에지방향을 결정하기 위해 이용되는 방향필터들을 보여주는 도면,
도 15는 고속운동화상을 입체영상으로 변환하는 방법의 흐름도,
도 16은 정지화상을 입체영상으로 변환하는 방법의 흐름도,
도 17은 도 1의 실시예로부터 개선된, 본 발명의 바람직한 실시예에 따른 MPEG 데이터를 이용한 입체영상생성장치를 나타낸 블럭도,
도 18은 도 17에 보여진 운동유형재결정부의 동작을 개략적으로 보여주는 흐름도,
도 19는 이전화상의 운동유형이 비수평운동화상인 경우에, 현재화상의 운동유형을 재결정하는 방법의 흐름도,
도 20은 이전화상의 운동유형이 수평운동화상인 경우에, 현재화상의 운동유형을 재결정하는 방법의 흐름도,
도 21은 이전화상과 현재화상의 운동유형이 동일한 경우에, 현재화상의 운동유형을 재결정하는 방법을 개략적으로 보여주는 흐름도이다.
<도면의 주요부분에 대한 부호의 설명>
100 : 화상추출부 110 : 동벡터생성부
120 : 동벡터필드구성부 130 : 운동유형결정부
140 : 입체영상생성부 150 : 좌/우측화상결정부
160 : 이전화상저장부 170,180 : D/A 변환기
190 : 운동유형재결정부 200 : MPEG 복호기
전술한 본 발명의 목적을 달성하기 위한 입체영상생성방법은, 영상데이터로부터 입체영상을 생성하는 방법에 있어서, (1) 상기 영상데이터에 따른 각 화상내의 동벡터들을 이용하여, 현재화상의 운동유형을 정지화상, 비수평운동화상, 수평운동화상 및 고속운동화상중의 하나로 결정하는 단계; (2) 상기 영상데이터에 따른 이전화상들 및 상기 결정된 운동유형을 이용하여, 현재화상에 대응하는 합성화상을 생성하고, 현재화상 및 그 합성화상을 출력하는 단계; 및 (3) 상기 출력되는 현재화상 및 그 합성화상을 수신하며, 제 (1)단계에서 결정된 운동유형에 따라 현재화상을 입체영상을 구성하는 좌측화상 및 우측화상중의 어느 한쪽으로 결정하고 합성화상을 다른 한쪽으로 결정하는 단계를 포함한다.
전술한 본 발명의 다른 목적을 달성하기 위한 입체영상생성장치는, 영상데이터로부터 입체영상을 생성하는 장치에 있어서, 상기 영상데이터에 따른 각 화상내의 동벡터들을 이용하여, 현재화상의 운동유형을 정지화상, 비수평운동화상, 수평운동화상 및 고속운동화상중의 하나로 결정하는 운동유형결정수단; 상기 영상데이터에 따른 이전화상들 및 상기 결정된 운동유형을 이용하여 현재화상에 대응하는 합성화상을 생성하고, 현재화상 및 그 합성화상을 출력하는 입체영상생성수단; 및 상기 입체영상생성수단으로부터 출력되는 현재화상 및 그 합성화상을 수신하며, 상기 운동유형결정수단에서 결정된 운동유형에 따라 현재화상을 입체영상을 구성하는 좌측화상 및 우측화상중의 어느 한쪽으로 결정하고 합성화상을 다른 한쪽으로 결정하는 좌/우측화상결정부를 포함한다.
본 발명의 또다른 목적을 달성하기 위한 입체영상생성방법은, I, B 및 P화상들(pictures)을 담고있는 MPEG부호화된 데이터를 이용하여 입체영상(stereoscopic image)을 생성하는 방법에 있어서, (1) 상기 부호화된 화상데이터를 입력받아, 그 화상내의 매크로블록들에 개별적으로 대응하는 동벡터들을 생성 및 저장하는 단계; (2) 입력되는 화상데이터로부터 복원되는 화상을 K개만큼 저장하는 단계; (3) 제(1)단계에서 저장된 동벡터들을 이용하여 현재화상에 대응하는 운동유형을 결정하는 단계; (4) 제 (2)단계에서 저장된 이전화상들 및 제 (3)단계에서 결정된 운동유형을 이용하여 현재화상에 대응하는 합성화상을 생성하고, 현재화상 및 합성화상을 출력하는 단계; 및 (5) 제 (4)단계에서 출력되는 현재화상 및 합성화상을 수신하며, 현재화상을 입체영상을 구성하는 좌측화상 및 우측화상중의 어느 한쪽으로 결정하고 합성화상을 다른 한쪽으로 결정하는 단계를 포함한다.
전술한 본 발명의 또다른 목적을 달성하기 위한 입체영상생성장치는, I, B 및 P화상들(pictures)을 담고있는 MPEG부호화된 데이터를 이용하여 입체영상(stereoscopic image)을 생성하는 장치에 있어서, 상기 부호화된 화상데이터를 입력받아, 각 화상내의 매크로블록들에 개별적으로 대응하는 동벡터들을 생성 및 저장하는 동벡터생성및저장수단; 상기 동벡터생성및저장수단에 공급되는 화상데이터로부터 복원되는 화상을 K개만큼 저장하는 화상저장부; 상기 동벡터생성및저장수단에 저장된 동벡터들을 이용하여 현재화상에 대응하는 운동유형을 결정하는 운동유형결정수단; 상기 화상저장부에 저장된 이전화상들 및 결정된 운동유형을 이용하여 현재화상에 대응하는 합성화상을 생성하고, 현재화상 및 합성화상을 출력하는 입체영상생성수단; 및 상기 입체영상생성수단으로부터 현재화상 및 합성화상을 수신하며, 현재화상을 입체영상을 구성하는 좌측화상 및 우측화상중의 어느 한쪽으로 결정하고 합성화상을 다른 한쪽으로 결정하는 좌/우측화상결정부를 포함한다.
전술의 동벡터생성방법 및 그 수단은, MPEG 부호화된 비트스트림에서 GOP내의 헤더를 분석하여 I, P, B 화상을 추출하고, 각 화상의 매크로블록별로 동벡터를 추출 및 생성하여 동벡터필드(motion vector field)를 구성하는 것이 바람직하다.
여기서, B화상 및 P화상의 동벡터들은 해당 화상에 대응하는 MPEG비트스트림으로부터 매크로블록별로 추출 및 보간하여 생성하는 것이 바람직하고, 인트라코딩되는 I화상의 동벡터들은 이전 B화상들의 매크로블록별 동벡터들을 이용하여 생성하는 것이 바람직하다.
전술의 운동유형결정방법 및 그 수단은, 현재화상의 동벡터필드를 분석하여 현재화상의 운동유형을 움직임이 없는 정지화상, 카메라 및/또는 물체가 비수평방향으로 운동하는 비수평운동(non-horizontal motion)화상, 카메라 및/또는 물체가 수평방향으로 운동하는 수평운동(horizontal motion)화상, 및 움직임이 빠른 고속운동(fast motion)화상중의 하나로 결정하는 것이 바람직하다.
여기서, 화상의 운동유형을 정지화상과 운동화상중의 하나로 결정하는 방법은, 화상의 동벡터필드를 분석하여, 화상의 전체매크로블록들중에서 수평운동성분과 수직운동성분이 모두 영(0)인 정지매크로블록들이 차지하는 비율에 근거하여 결정하는 것이 바람직하다.
여기서, 화상의 운동유형을 비수평운동화상과 수평운동화상중의 하나로 결정하는 방법은, 화상의 동벡터필드를 분석하여, 화상의 전체매크로블록들중에서 최대수직퓨젼임계각과 최대수직시차임계값에 근거하는 비수평매크로블록들이 차지하는 비율에 근거하여 결정하는 것이 바람직하다.
여기서, 화상의 운동유형을 고속운동화상과 수평운동화상중의 하나로 결정하는 방법은, 화상의 동벡터필드를 분석하여, 화상의 전체매크로블록들중에서 최대수평시차임계값에 근거하는 고속운동매크로블록들이 차지하는 비율에 근거하여 결정하는 것이 바람직하다.
전술의 입체영상생성수단은, 정지화상으로 결정된 현재화상의 입체영상을 생성하는 합성정지화상발생부, 비수평운동화상으로 결정된 현재화상의 입체영상을 생성하는 합성비수평운동화상발생부, 고속운동화상으로 결정된 현재화상의 입체영상을 생성하는 합성고속운동화상발생부, 및 수평운동화상으로 결정된 현재화상의 입체영상을 생성하는 합성수평운동화상발생부를 포함하는 것이 바람직하다.
여기서, 정지화상으로 결정된 현재화상에 대응하는 입체영상생성방법은, 정지화상내의 소정 각 블록의 밝기 및/또는 그 표준편차를 이용하여 깊이정보를 다르게 할당하고, 이를 수평시차로 변환하여 정지화상에 대응하는 합성화상을 생성하는 것이 바람직하다.
여기서, 비수평운동화상으로 결정된 현재화상에 대응하는 입체영상생성방법은, 비수평운동화상내에서 카메라 및 물체가 모두 운동하는 경우에는 카메라운동방향과 동일한 매크로블록과 그렇지 않은 매크로블록들간에 시차값을 다르게 할당하여 합성화상을 생성하는 것이 바람직하고, 비수평운동운동화상내에서 물체만 운동하는 경우에는 운동매크로블록과 정지매크로블록간에 시차값을 다르게 할당하여 합성화상을 생성하는 것이 바람직하고, 비수평운동화상내에서 카메라만 운동하는 경우에는 현재매크로블록의 에지특성에 따라 주변의 에지매크로블록들 및 이전화상의 매크로블록의 동벡터들을 이용하여 현재매크로블록에 대응하는 시차값을 구해 합성화상을 생성하는 것이 바람직하다.
여기서, 고속운동화상으로 결정된 현재화상에 대응하는 입체영상생성방법은, 현재화상내의 고속운동매크로블록들의 동벡터를 최대수평시차값으로 변환하여 수평이동시키고, 이를 직전의 이전화상에 합성하여 고속운동화상에 대응하는 합성화상을 생성하는 것이 바람직하다.
여기서, 수평운동화상으로 결정된 현재화상에 대응하는 입체영상생성방법은, 정신물리학이론에 기반하는 최대수평시차임계값 및 현재화상내의 소정 수평운동값에 근거하는 이전화상을 수평운동화상에 대응하는 합성화상으로 결정하는 것이 바람직하다.
전술의 좌/우측화상결정방법 및 그 수단은, 현재화상의 운동유형이 수평운동화상으로 결정된 경우에는, 수평운동화상내의 카메라 및/또는 물체의 운동종류에 근거하여 적응적으로 모드 A(현재화상을 좌측화상으로 그리고 이전화상을 우측화상으로 결정하는 방식) 또는 모드 B(현재화상을 우측화상으로 그리고 이전화상을 좌측화상으로 결정하는 방식)를 선택하여, 입체영상을 구성하는 좌측화상 및 우측화상을 결정하는 것이 바람직하고, 현재화상의 운동유형이 수평운동화상이 아닌 경우들에서는 현재화상을 좌측화상으로 그리고 합성화상을 우측화상으로 결정하는 것이 바람직하다.
여기서, 수평운동화상으로 결정된 현재화상에 대응하는 모드 A 또는 모드 B의 결정방법은, 현재화상을 제 1결정영역과 제 2결정영역으로 분할하고, 제 1결정영역에서는 매크로블록별 수평동벡터성분들중의 최대갯수를 갖는 제 1부호를 결정하고, 제 2결정영역에서는 제 1결정영역에서의 최대갯수부호를 제외한 나머지 수평동벡터부호들중의 최대갯수를 갖는 제 2부호를 결정하며, 결정된 제 2부호에 속하는 동벡터의 수평위치의 평방편차 및 기준평방편차에 근거하여 전술한 모드 A 또는 모드 B를 결정하는 것이 바람직하다.
또한, 본 발명에 따른 입체영상생성방법 및 그 장치는, 시간적으로 연속하는 입체영상들간의 흔들림을 감소하기 위하여, 운동유형결정부에서 1차적으로 결정된 현재화상의 운동유형을, 이전화상의 운동유형 및 현재화상에 대응하는 동벡터들에 근거하여 적응적으로 재결정하여 입체영상을 생성하고 좌/우측화상을 결정하는 것이 보다 바람직하다.
이하, 첨부한 도면들을 참조하여 본 발명에 따른 바람직한 실시예들을 상세하게 설명한다.
도 1은 본 발명의 바람직한 실시예에 따른 MPEG압축데이터의 입체영상생성 장치를 보여준다. 도 1에 도시된 장치는 화상추출부(100), 동벡터생생부(110), 동벡터필드구성부(120), 운동유형결정부(130), 입체영상생성부(140), 좌/우측화상결정부(150), 이전화상저장부(160), 그리고, DAC(Digital To Analog Converter; 170 및 180)를 구비한다.
화상추출부(100)는 MPEG부호화된 데이터의 비트스트림이 입력되면, 입력된 비트스림림의 픽처헤더(picture header)내의 3비트코드를 이용하여 화상(picture)의 종류를 알아낸다. 픽처헤더(picture header)내의 3비트코드는 프레임화상 또는 필드화상의 각 화상종류를 알려주는 것으로, 예를 들면, 3비트코드가 001이면 I화상이고, 010이면 P화상, 100이면 B화상이다. 화상추출부(110)는 MPEG비트스트림에서I,P, B화상데이터를 추출하고, 이 화상데이터를 동벡터생성부(110) 및 이전화상저장부(160)로 공급한다.
동벡터생성부(110)는I, P, B화상내 매크로블록의 동벡터를 비트스트림에서 추출하고 동벡터를 갖지 않는 매크로블록들에 대해서는 다른 화상들의 데이터를 참조하여 동벡터를 생성한다. I화상은 인트라코딩(intra-coding)되므로 동벡터가 존재하지 않는다. 따라서 적어도 하나의 이전 B화상들의 동벡터를 이용하여 동벡터를 추출한다. P화상과 B화상은 인터코딩(inter-coding)되므로 자신의 동벡터를 가지고 있다. 따라서 기존 MPEG의 동벡터추출방법을 이용하여 동벡터를 얻을 수 있다.
MPEG부호기에 입력되는 원영상의 GOP의 화상순서는 M이 3인 경우에 다음과 같다.
. . . B 0 B 1 P 2 B 3 B 4 I 5 B 6 B 7 P 8 B 9 B 10 P 11 . . .
이와는 달리 MPEG복호기에 입력되는 GOP의 화상순서는 부호화된 순서를 따르며, 다음과 같다.
. . . P 2 B 0 B 1 I 5 B 3 B 4 P 8 B 6 B 7 P 11 B 9 B 10 . . .
부호기는 화상 B3와 B4에 대해 화상 I5를 이용하여 역방향 운동예측을 한다. 따라서 화상 I5의 매크로블록의 동벡터를 추출하기 위해서는, 이전화상 B3와 B4의 부호기에서 구해진 동벡터를 이용한다. 표 1은 MPEG에서I, P, B화상의 디스플레이순서(=원영상의 순서)와 복호기입력순서(=부호화된 영상의 순서)를 보여준다.
B B P B B I B B P B B P B B P B B
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
P B B I B B P B B P B B P B B I B
2 0 1 5 3 4 8 6 7 11 9 10 14 12 13 17 15
ⓐ항목은 MPEG화상들의 디스플레이순서를 나타내며, ⓑ항목은 MPEG화상들의 복호기입력순서를 나타낸다.
화상추출부(100)에서 B화상이 추출되면, 도 2의 B화상동벡터추출부(200)는 해당 B화상에 대응하는 비트스트림에서 매크로블록별로 동벡터를 추출한다. B화상동벡터생성부(210)는, 추출된 매크로블록별 동벡터들을 후술하는 방식으로 스케일링(scaling)하며, B화상에서 인트라코딩(일례로,강제인트라코딩)등에 의해 동벡터가 없는 매크로블록들의 동벡터들을 보간기법을 사용하여 생성한다.
먼저, B화상의 비트스트림에서 추출된 매크로블록별 동벡터들을 스케일링하는 방법을 설명한다. B화상동벡터생성부(210)는 추출된 매크로블록별 동벡터들에 대하여 N과 M을 고려하여 스케일링한다. N은 GOP에서의 프레임갯수이고, M은 GOP에서의 I/P화상과 P화상간의 화상간격이다. M=3을 가정하면, 표 1의 ⓐ에서, B3는 순방향예측되는 P2와는 한 화상 간격이고, 역방향예측되는 I5와는 두 화상 간격이다. 반면에 B4는 순방향예측되는 P2와는 두 화상 간격이고, 역방향예측되는 I5와는 한 화상 간격이다. 화상간격(M)을 고려하여 스케일링되는, B3의 동벡터는 수학식 1과 같이 구할 수 있다.
여기서, 두개의 동벡터((dBx,dBy)f,(dBx,dBy)r)는 양방향예측되는 특정 매크로블록에서 동시에 또는 선택적으로 추출되는 동벡터들이다. 따라서, 수학식 1에 의해 스케일링된 동벡터((dBx,dBy)s)는, B화상내의 매크로블록타입중, 순방향(forward) 프레임간 예측부호화타입, 역방향(backward) 프레임간 예측부호화타입, 및 전후 양방향으로부터 예측부호화된 내삽적(interpolative) 프레임간 예측부호화타입 모두를 포괄한다. 수학식 1에 의해 얻어지는 동벡터((dBx,dBy)s)는 본 발명에서 사용되는 해당 매크로블록의 동벡터값이 된다.
유사하게, 스케일링된 B4의 동벡터는 수학식 2와 같이 구할 수 있다.
한편, B화상에서 인트라코딩등에 의해 동벡터가 없는 매크로블록들의 동벡터들은 보간기법을 사용하여 생성한다. 이 보간기법에 대해서는, 본 발명의 기술적 사상을 잘 이해한 이 기술분야의 당업자에게는 자명하게 이해될 것이므로, 상세한 설명을 생략한다.
B화상동벡터생성부(210)에 의해 스케일링되거나 보간된, B화상내의 모든 매크로블록들에 대응하는 동벡터들은, B화상동벡터저장부(220)에 저장되고 도 1의 동벡터필드구성부(120)로 입력된다.
화상추출부(100)에서 P화상이 추출되면, P화상동벡터추출부(240)는 비트스트림에서 P화상내 매크로블록들의 동벡터들을 추출한다. 그런데 P화상내의 매크로블록들은, 부호기에서 이전의 I화상 또는 P화상과 순방향(forward) 프레임간 예측부호화되거나 인트라코딩된다. 그러므로, P화상내의 모든 매크로블록들중에서, P화상동벡터추출부(240)에서 추출되는 동벡터의 매크로블록타입은 순방향(forward) 예측코딩타입이 되며, 동벡터가 추출되는 않는 매크로블록의 타입은 인트라코딩타입이다.
P화상동벡터생성부(250)는, 전술한 B화상의 경우와 유사하게, P화상에 대응하는 비트스트림에서 추출된 매크로블록별 동벡터들을 후술하는 방식으로 스케일링하며, 또한 P화상에서 인트라코딩등에 의해 동벡터가 없는 매크로블록들의 동벡터들을 보간기법을 사용하여 생성한다.
특히 P화상의 동벡터 스케일링에서는, 부호기에서 P화상의 동벡터를 예측할 때에 적용된, P화상과 움직임 예측되는 이전 I/P화상간의 화상간격(M)을 고려해야 한다. 이는, 후술하는 입체영상생성시 전후 화상들간에 일정한 움직임량이 유지되어야 하기 때문이다. 따라서 P화상의 매크로블록의 스케일링된 동벡터는 화상간격(M)을 고려하여 수학식 3과 같이 구할 수 있다.
여기서 스케일링된 동벡터'(dPx,dPy)S'는, 이전 I/P화상과 현재의 P화상간에 순방향예측된 동벡터(dPx,dPy)에 대하여, 부호기에서 예측부호화시에 적용된 일정한 화상간격(M)을 고려하여 스케일링된다.
P화상동벡터생성부(250)에 의해 스케일링되거나 보간된, P화상내의 모든 매크로블록들의 대응하는 동벡터들은 도 1의 동벡터필드구성부(120)로 입력된다.
B화상동벡터저장부(220)에 저장된 동벡터들은 I화상동벡터생성부(230)가 I화상내의 매크로블록들에 대응하는 동벡터들을 생성하는데 사용된다. I화상내의 모든 매크로블록들은 인트라코딩되므로 동벡터가 없다. 따라서 I화상의 동벡터를 생성하기 위해서는, 부호기에서 I화상을 참조하여 역방향운동예측한 B화상내의 모든 매크로블록들의 동벡터들이 B화상동벡터추출부(200) 및 B화상동벡터생성부에서 구해질 때까지 기다려야 한다. I화상내 각 매크로블록의 동벡터(dx,dy)I는 다음과 같이 구할 수 있다.
표 1의 시퀀스에서 알 수 있듯이, 동벡터를 갖지 않는 I5의 동벡터는 비트스트림내의 움직임정보를 갖는 이전 P, B화상을 이용하여 구할 수 있다.
표 1을 참조하여 살펴보면, I화상동벡터생성부(230)는 이전화상 B3,B4를 이용하여 I5의 동벡터들을 구하는 것이, 시간지연의 최소화 및 신뢰성 확보에 가장 바람직하다. 이는, 화상 B3,B4는 부호기에서 화상 I5를 직접적으로 참조하여 예측부호화하였으면서도 시간적으로 가장 인접해 있음에 근거한다. 예를 들면, 표 1에서 화상 P2,B0,B1는 화상 B3,B4에 비하여 시간적으로 우선하지만, 부호기에서 화상 I5를 직접적으로 참조하지 않았으므로 신뢰성이 떨어진다. 그리고, 화상 P8,B6,B7은, 부호기에서 화상 I5를 직접적으로 참조하였으나, 화상 B3,B4보다 복호기입력순서 및 디스플레이순서가 늦으므로 시간지연이 커진다. 따라서, 부호기에서의 참조여부, 복호기입력순서 및 디스플레이순서를 모두 고려할 때, I5의 동벡터들은 B3,B4의 동벡터를 이용하여 구하는 것이 가장 바람직하다.
그러므로, 본 발명에 따른 I화상동벡터생성부(230)는 임의의 I화상의 바로 이전에 역방향예측된 B화상을 이용하여 동벡터를 생성하는 것이 바람직하며, 그 방법은 다음의 세가지로 제안된다.
방법 1: 방향을 고려한 가중치의 이용
먼저, 시간적으로 늦게 복호기로 입력되는 B4의 동벡터를 그대로 사용하여 I5의 동벡터를 구할 수 있다. 그러나 이 방법은 모든 매크로블록들이 선형적으로 움직인다는 가정하에만 사용할 수 있다. 또한 B화상의 매크로블록들이 참조하는 I화상의 매크로블록들은 정확하게 매크로블록단위로 정렬된 것이 아니므로, 구해진 동벡터값은 원하고자 하는 매크로블록의 동벡터값이 아니다.
따라서 사용할 수 있는 B화상의 동벡터값만큼 블록을 이동한 후, 구하고자 하는 매크로블록과 겹치는 매크로블록의 정보를 이용하여 동벡터의 값을 계산한다. 도3에서, MB(x,y,k-1)들은 동벡터를 갖는 이전화상인 B화상의 매크로블록들이며, MB(x,y,k)는 현재 동벡터를 구하고자 하는 I화상의 매크로블록을 나타낸다. 화살표는 동벡터의 방향을 나타내므로, MB1 및 MB2는 서로 유사한 동벡터를 가지나 MB3는 상이하다. 그러므로, MB3처럼, 전체적인 동벡터의 방향과 그 움직임 방향이 다른 매크로블록들은 그 후보로 포함하지 않음으로써, 상관관계가 적은 영역으로부터 얻어지는 동벡터를 피할 수 있다. 또한 동벡터의 방향은 다양하게 존재할 수 있으므로, 도 4처럼 4개의 영역으로 분류하는 것이 바람직하다. 또한 동벡터를 (dx,dy)로 정의하면, 동벡터의 방향은 수학식 4를 이용하여 계산되며, 계산된 방향은 도 4에 보여진 좌상, 우상, 좌하, 우하중의 하나로 분류된다.
I화상의 동벡터는 다음과 같이 구해진다. Fk와 Fk-1은 각각 현재화상 및 이전화상을 의미하며, N은 동벡터를 구하고자 하는 I화상의 매크로블록 MB(x,y,k)과 부분적으로 겹치며 동벡터의 방향이 유사한 B화상의 매크로블록들의 갯수를 의미한다.l n=[l xn,l yn]T은 MB(x,y,k)와 x,y축에서 겹치는 부분의 길이에 해당되는 화소수를 의미한다.l n=[l xn,l yn]T에 대한 가중치인 ω=[ωxy]T는 수학식 5를 이용하여 구해진다.
T는 트랜스포즈(transpose)이다.
그러면, I화상의 매크로블록의 동벡터는 수학식 5에서 얻어진 가중치를 이용하여 수학식 6과 같이 구해진다.
방법 2: x축 y축 각각의 가중치의 이용
가중치만을 이용하여 계산하는 방법은 전술의 방법 1에서 고려된 방향을 제외하고는 동일하다. 즉, 특정 방향의 동벡터를 갖는 매크로블록들만 고려하는 것이 아니라, 겹치는 모든 매크로블록들을 고려하여 I화상의 동벡터를 구한다.
방법 3: 면적을 가중치로 사용
방법 2와 동일하나 x,y축 각각에 대해 가중치를 구하는 것이 아니라, 구하고자 하는 매크로블록과 겹치는 모든 매크로블록들의 면적, 즉 픽셀의 갯수를 가중치로 하여 I화상의 동벡터를 계산한다.
전술한 방법들중의 하나로 생성된, I화상내의 모든 매크로블록들의 동벡터들은 동벡터필드구성부(120)로 공급된다.
동벡터필드구성부(120)는I, P 또는 B화상내 매크로블록의 동벡터가 구해지면, 그 화상내의 모든 매크로들록들에 대응하는 동벡터들로 이루어진 동벡터필드를 구성한다. 동벡터필드는 어레이(array) 또는 집합으로 표현된다. 여기서, '필드'의 개념은 화상(picture)의 한 종류인 필드(field)와는 구분된다.
동벡터필드가 구성되면 운동유형결정부(130)는 동벡터필드구성부(120)에 저장되어있거나 그로부터 출력되는 화상별 동벡터필드에 대해 운동해석방법을 적용하여, 현재화상의 운동유형을 다양한 운동유형들중의 하나로 결정하고 그 결과를 입체영상생성부(140)로 출력한다. 여기서, 전술의 다양한 운동유형들은, 움직임이 없는 정지화상, 카메라 및/또는 물체가 비수평으로 운동하는 비수평운동화상, 카메라 및/또는 물체가 빠르게 운동하는 고속운동화상, 및 카메라 및/또는 물체가 수평으로 운동하는 수평운동화상으로 분류된다. 전술한 운동유형결정부(130)는 도 5에 보여진 것처럼 운동/정지화상결정부(500), 수평/비수평운동화상결정부(510), 및 수평/고속운동화상결정부(520)를 구비한다. 도 5에 보여진 합성정지화상발생부(530), 합성비수평운동화상발생부(540), 합성고속운동화상발생부(550), 및 합성수평운동화상발생부(560)는 도 1에 보여진 입체영상생성부(140)를 구성한다.
도 5에 보여진 운동/정지화상결정부(500)의 동작을 도 6을 참조하여 설명한다. 운동/정지화상결정부(500)는 동벡터필드를 분석하여 현재화상을 정지화상과 운동화상중의 하나로 결정한다. 도 6을 참조하면, 운동/정지화상결정부(500)는 먼저 현재화상의 동벡터들(dx,dy)중에서 수평성분과 수직성분이 모두 '0'인 매크로블록(동벡터가 (0,0)인 매크로블록; 이하 '정지매크로블록'이라 함)들의 갯수 N0를 계산하고(단계 600), 현재화상내 전체매크로블록들의 갯수 NMB를 계산하여(단계 610), 화상내 전체매크로블록갯수 NMB에 대한 정지매크로블록갯수 N0의 비율 αs를, 수학식 7을 이용하여 구한다(단계 620). 그리고, 전술의 정지매크로블록은 MPEG부호화방식에서 적용된 'NO-MC' 매크로블록, 즉 움직임보상(MC;Motion Compensation)이 수행되지 않은 매크로블록을 포함한다.
다음으로, 운동/정지화상결정부(500)는 단계 620에서 얻어진 αs값이 임계값 TS보다 크면 현재화상의 운동유형을 정지화상으로 결정하고, 작으면 운동화상으로 결정한다(단계 630). 여기서, 임계값 TS=[0.0, 1.0]. 예를 들어, TS=0.9로 설정되는 경우, 현재화상내의 정지매크로블록들의 영역이 전체영역의 90%이상이면 현재화상은 정지화상으로, 그렇지 않으면 운동화상으로 결정된다. 단계 630의 판별결과, 현재화상의 운동유형이 정지화상이면 동벡터를 담고있는 현재화상의 데이터는 합성정지화상발생부(530)로, 그리고 운동화상이면 수평/비수평운동화상결정부(510)로 입력된다.
도 5에 보여진 수평/비수평운동화상결정부(510)의 동작을 도 7 및 도 8을 참조하여 설명한다. 수평/비수평운동화상결정부(510)는 정신물리학이론에 기반하여 현재화상의 운동유형을 비수평운동화상과 수평운동화상중의 하나로 결정한다.
이 기술분야에서 공지된 정신물리학이론에 따르면, 영상이 수평방향으로만 운동하면 양안의 수평시차로 인한 영상의 깊이감이 발생한다. 반면에, 비수평운동으로 인한 수직시차는 상동점이라 불리는 두 매칭점들간의 수직성분의 차이이다. 이러한 수직시차는 양안이 영상을 퓨젼(fusion)하는 것을 매우 어렵고 불편하게 하는 것으로 알려져 있다. 정신물리학실험에 의하면, 영상의 퓨전이 가능한 수직시차의 크기는 적어도 최대수직퓨젼임계각 θv가 각도로는 10′(minutes of arc)이내이어야 하는 것으로 측정되었다. 다른 실험에 의하면, θv는 각도로는 6′의 수직시차를 만족해야 하는데, 영상의 퓨전이 이루어진 후에는 θv가 20′로 되더라도 영상이 안정적으로 퓨전되는 것으로 관찰되었다.
따라서, 단계 700에서는, 6′내지 20′의 범위내의 임의의 값을 최대수직퓨전임계각(θv)으로 설정한다. 이러한 θv에 대응하는 디스플레이 모니터에서의 거리 LV는 화상에서의 최대수직시차임계값이며, 도 8의 관계도에 관련된 수학식 8을 이용하여 구할 수 있다(단계 710).
여기서, θv의 단위가 (minute)이므로 도(degree)로 나타내기 위해서는 60으로 나누어야한다. 최대수직시차임계값 LV의 단위는 픽셀이다. D는 시청거리이고, 그 단위는 cm이다. Ny는 화상의 수직크기이고, 그 단위는 픽셀이다. Wy는 화상의 디스플레이 모니터에서의 수직길이이고, 그 단위는 cm이다.
화상의 비수평운동을 결정하는 매우 중요한 요소인 LV가 단계 710에서 얻어지면, 현재화상내의 동벡터의 수직성분 dy의 크기가 LV보다 큰 매크로블록(이하, '비수평매크로블록'이라 함)들의 갯수 NLV를 계산하고(단계 720), 화상내 전체매크로블록갯수 NMB에 대한 비수평매크로블록갯수 NLV의 비율 αv를, 수학식 9를 이용하여 구한다(단계 730).
수평/비수평운동화상결정부(510)는 단계 730에서 얻어진 현재화상의 비율 αv이 임계값 TV보다 크면 현재화상의 운동유형을 비수평운동화상으로 결정하고, 작으면 수평운동화상으로 결정한다(단계 740).
αv및 TV는 현재화상의 운동유형이 수평운동화상 및 비수평운동화상중의 어느 것인지를 결정하는데 매우 중요한 요소이다. 실제의 입체영상에서 비수평으로 운동하는 조그만 물체도 입체감에 영향을 준다. 따라서 화상내에서 비수평운동매크로블록들의 갯수가 αv를 결정한다. 실험에 따르면, 카메라가 정지한 상태에서의 비수평물체운동이, 카메라가 운동하고 있을 때의 비수평물체운동보다 사람의 눈을 더 피로하게 하는 것으로 나타났다. 왜냐하면, 화상내에서 정지영역과 운동영역간의 시차의 차이는 전자의 경우에 더 크고, 후자의 경우에는 상대적으로 작기 때문이다. 따라서, 전술한 αv의 임계값 TV는, 카메라정지상태에서는 0.05로, 그리고 카메라운동상태에서는 0.15로 설정하는 것이 바람직하다. 단계 740의 판별결과, 현재화상의 운동유형이 비수평운동화상이면 동벡터를 담고 있는 현재화상의 데이터는 합성비수평운동화상발생부(530)로 공급되고, 그렇지 않으면 수평/고속운동화상결정부(520)로 입력된다.
도 5에 보여진 수평/고속운동화상결정부(520)의 동작을, 도 9 및 도 10을 참조하여 설명한다. 수평/고속운동화상결정부(520)는 현재화상의 운동유형을 움직임이 빠른 고속운동화상과 그렇지 않은 수평운동화상중의 하나로 결정한다.
먼저, 수평/고속운동화상결정부(520)는 사람의 눈이 피로하지 않는 최대수평시차값을 결정한다. 정신물리학실험에 따르면, 수평퓨젼임계각(θH)은 음의 시차(negative parallax 또는 crossed disparity)에서는 각도로 대략 27′이고, 양의 시차(positive parallax 또는 uncrossed disparity)에서는 각도로 24′인 것으로, 그리고 약 2초의 시간간격 동안의 인간시각의 수렴응답은 앞서의 시차값들(27′,24′)보다는 큰 것으로 나타났다. 여기서, 음의 시차 및 양의 시차의 개념은, 이 기술분야의 당업자에게는 공지되었으므로 상세한 설명을 생략한다. 또한, 인간의 입체시가 수렴할 수 있는 수평퓨전임계각은, 음의 시차에서는 대략 4.93o이고, 양의 시차에서는 1.57o인 것으로 증명되었다.
따라서, 전술의 값들로 수평퓨젼임계각 θH가 설정되고(단계 900), 그에 따라 디스플레이 모니터에서의 최대수평시차임계값 LH는 도 10의 관계도를 이용한 수학식 10에 의하여 구해진다(단계 910).
여기서 D는 사람의 눈과 스크린까지의 시청거리를 나타낸다. Nx는 화상의 수평크기를 나타내고, Wx는 화상의 디스플레이 모니터에서의 수평길이를 나타내며, 그 단위는 ㎝이다.
그런데, 수학식 10으로 얻은 최대수평시차임계값(LH)은 사람의 눈이 피로감 없이 퓨전가능한 최대임계값이므로, 가중치를 부여하는 것이 보다 바람직하다. 따라서, 화상의 고속운동을 결정하는 중요한 요소인 최대수평시차임계값은 전술한 수평퓨전임계각들(1.57°,4.93°)에 대하여 가중치를 부여한 수학식 11을 이용하여 계산된다(단계 910).
여기서, 'ω12=1'이며, 두 가중치(ω12)가 모두 1/2이면, 수학식 11에 의해 얻어지는 최대수평시차임계값(LH)은 수평퓨전임계각들(1.57°,4.93°)에 대한 평균치가 된다.
다음으로, 수평/고속운동화상결정부(520)는 수평운동하는 현재화상에서 영상의 퓨전을 어렵게 하는 고속운동부분(들)을 결정한다. 이 결정방법은 정신물리학이론에 기반한다. 구체적으로 살펴보면, 수평/고속운동화상결정부(520)는 현재화상내의 매크로블록별 동벡터들중에서 그 수평성분 dx의 절대값이 수학식 11에서 구한 LH보다 큰 매크로블록(이하, '고속운동매크로블록'이라 함)들의 갯수 NLH를 계산하고(단계 920), 화상내 전체매크로블록갯수 NMB에 대한 고속운동매크로블록갯수 NLH의 비율 αH를, 수학식 12를 이용하여 구한다(단계 930).
수평/고속운동화상결정부(520)는, 단계 930에서 구해진 현재화상의 비율 αH을 임계값TH에 비교하며, 그 비교결과 현재화상의 비율 αH이 임계값 TH보다 크면 현재화상의 운동유형을 고속운동화상으로 결정하고, 그렇지 않으면 수평운동화상으로 결정한다(단계 940). 여기서, 임계값 TH는 0.0과 1.0 사이에 있는 값이다.
수평/고속운동화상결정부(520)는 현재화상의 운동유형이 고속운동화상이면 동벡터를 담고 있는 현재화상의 데이터를 합성고속운동화상발생부(550)로 공급하고, 수평운동화상이면 합성수평운동화상발생부(560)로 공급한다.
다음으로, 도 5에 보여진 합성수평운동화상발생부(560)의 동작을, 도 11 및 도 12를 참조하여 설명한다. 수평/고속운동화상결정부(520)에서 현재화상의 운동유형이 수평운동화상으로 결정되면, 합성수평운동화상발생부(560)는 현재화상으로부터 지연요소를 구하여 그에 대응하는 이전화상을 합성수평운동화상으로 결정한다. 다음으로, 수평운동화상인 현재화상내 카메라 및/또는 물체의 운동종류를 분석하며, 분석된 운동종류에 따라 수평운동화상인 현재화상 및 결정된 이전화상을 각각 좌안 및 우안중의 어느쪽에 보여줄지가 적응적으로 결정된다.
도 11을 참조하면, 합성수평운동화상발생부(560)는 수평운동화상인 현재화상의 평균수평운동속도 또는 최대수평운동속도를 계산한다(단계 1100). 평균수평운동속도는 현재화상내 동벡터의 수평성분 dx값이 0이 아닌 모든 수평동벡터성분의 절대값의 평균으로서, 수학식 13에 의해 구해진다.
여기서, N은 현재화상내에서 동벡터의 수평성분 dx값이 0이 아닌 매크로블록들의 갯수이다. 최대수평운동속도 dxmax는 최대수평동벡터성분값으로, 수학식 14에 의해 구해진다.
다음으로, 합성수평운동화상발생부(560)는 현재화상에 대응하는 지연화상, 즉 수평운동화상인 현재화상과 함께 입체영상을 구성하는 이전화상을 결정한다(단계 1101). 단계 1101에서는 먼저, 최대수평운동값(dxmax)과 최대수평시차임계값(LH)을 비교하여 이전화상을 결정한다. 도 9의 단계 910에서 구한 LH를 이용하여 입체영상을 구성하기 위해서는, 이전화상(previous frame)들중에서 하나를 선택해야 한다. 이것을 결정하기 위해서는 지연요소(delay factor)를 계산한다. 현재화상의 운동유형이 수평운동화상인 경우에는, 입체영상을 구성하는 현재화상과 지연화상을 적절하게 좌안(the left eye)과 우안(the right eye)에 보여주어야 하며, 그 지연화상은 현재화상으로부터 시간축상에서 이전에 있는 K개의 이전화상들중의 하나로 선택된다. 이러한 지연화상의 결정을 위한 지연요소는, 현재화상의 평균수평운동속도 또는 최대수평운동속도를 이용하여 구한다. 전자는 하나의 매크로블록이 입체감에 크게 영향을 미칠 수 있는 단점이 있는 반면에, 후자는 모든 수평시차가 최대수평시차임계값보다 작게 결정되는 장점이 있다. 그러므로, 본 발명에서는 최대수평운동속도에 근거하여 수평운동화상의 입체영상을 위한 이전화상을 결정하는 것이 바람직하다. 현재화상을 Ik로, 그리고 이전화상들을 Ik-n(n=1,2,…,∞)로 정의한다. 지연요소를 이용하여 현재화상의 수평운동속도가 빠르면, 현재화상과 가까운 이전화상을 선택하고, 수평운동속도가 느리면 멀리 있는 이전화상을 선택한다. 지연요소 fD는 수학식 15에 의해 구해진다.
여기서, 수평운동화상의 최대수평운동값 dxmax는 최대수평시차임계값 LH보다 크지 않으므로 지연요소f D 의 최소값은 1이다. ROUND[ ]는 반올림연산자이다. 수평운동량이 적은 경우에는, 수학식 15의 분모값이 작아지므로 지연요소f D 의 값은 커진다.
이전화상의 저장을 위해서는 메모리가 필요하다. 메모리의 양은 유한하므로f D 의 최대값은 K로 한다. 메모리에는 K개의 이전화상들이 저장되며, K의 크기는 LH에 근거하여 적응적으로 결정한다. 전술한 방법에 의해 지연요소f D 가 구해지면, 그 지연요소에 근거하여 입체영상의 구성에 사용되는 이전화상이 결정된다.
단계 1101이 완료되면, 합성수평운동화상발생부(560)는 수평운동하는 현재화상 Ik과, 그에 대응하는 지연된 이전화상 Ik-fD으로 입체영상을 구성한다. 여기서, 현재화상이 수평운동화상인 경우에는 현재화상과 지연된 이전화상으로 입체영상을 구성하는 것이 가장 바람직하다.
다음으로, 현재화상의 운동유형이 수평운동화상인 경우에, 입체영상을 구성하는 현재화상과 지연된 이전화상을, 현재화상의 카메라 및/또는 물체의 운동종류에 따라 양안중의 어느쪽에 적응적으로 보여줄지가 결정된다. 이때, 좌측화상 및 우측화상중의 하나로 결정되는 방식은 다음의 두가지가 있다. 첫째 방식은 현재화상을 좌측화상으로, 그리고 이전화상을 우측화상으로 결정하는 방식(이하,'모드 A'라 함)이고, 둘째 방식은 현재화상을 우측화상으로, 그리고 이전화상을 좌측화상으로 결정하는 방식(이하,'모드 B'라 함)이다. 수평운동화상의 입체영상을 구현함에 있어서, 전술의 모드 A와 모드 B를 결정하는 것은 매우 중요하다.
보다 구체적으로, 현재화상의 카메라 및/또는 물체의 운동종류에 따라 전술의 모드 A 또는 모드 B를 결정하는 방법을, 도 11 및 도 12, 그리고, 표 2 내지 표 4를 참조하여 설명한다.
운동종류 카메라운동 물체운동 좌측화상 우측화상
우측 없음 이전화상 현재화상
좌측 없음 현재화상 이전화상
없음 우측 현재화상 이전화상
없음 좌측 이전화상 현재화상
우측 우측 현재화상 이전화상
우측 좌측 이전화상 현재화상
좌측 좌측 이전화상 현재화상
좌측 우측 현재화상 이전화상
우측 좌우 이전화상 현재화상
좌측 좌우 이전화상 현재화상
모드 A 또는 모드 B를 선택하기 위해서는, 먼저 현재화상의 동벡터필드에서 동벡터의 수평성분만을 이용하여 현재화상내의 카메라 및/또는 물체의 운동종류를 결정해야한다. 현재화상에서 존재하는 카메라 및/또는 물체의 움직임은 표 2에서 보여지는 10가지의 운동종류로 분류된다. 표 2에는, 각 운동종류에 따른 카메라운동 및/또는 물체의 운동방향이 있고, 분류된 운동종류마다에 적응적으로 결정되는 좌측화상 및 우측화상이 보여졌다. 동벡터필드를 분석함에 따라 전술한 10가지의 운동종류가 결정되면 최종적으로 현재화상과 이전화상을 좌안/우안 또는 우안/좌안에 입체영상으로 디스플레이하게 된다.
표 2의 운동종류를 다시 분류하면, 크게 모드 A 및 모드 B로 구분된다. 모드 A로 구분되는 경우들은, ② 카메라좌측운동, ③ 물체우측운동 ⑤ 카메라우측운동 및 물체우측운동, 또는 ⑧ 카메라좌측운동 및 물체우측운동이다. 모드 A의 경우들이 표 3에 보여졌다.
모드 B로 구분되는 경우들은, ① 카메라우측운동, ④ 물체좌측운동, ⑥ 카메라우측운동 및 물체좌측운동, ⑦ 카메라좌측운동 및 물체좌측운동, ⑨ 카메라우측운동 및 물체좌우측운동, 또는 ⑩ 카메라좌측운동 및 물체좌우측운동이 있다. 모드 B의 경우들이 표 4에 보여졌다.
운동종류 PDA(제 1방향) SDA(제 2방향) 카메라 운동 물체 운동
+ + 좌측 없음
0 + 없음 우측
⑤-b - 0 우측 우측
⑤-c - + 우측 우측
+ + 좌측 우측
운동종류 PDA(제 1방향) SDA(제 2방향) 카메라 운동 물체 운동
- - 우측 없음
0 - 없음 좌측
- - 우측 좌측
⑦-a + - 좌측 좌측
⑦-b + 0 좌측 좌측
따라서 본 발명에서는 화상의 동벡터필드를 모드 A와 모드 B로 분류하는 결정요소를 찾는다. 각 운동종류의 동벡터필드를 분석하면, 카메라운동과 관계없이 물체의 운동방향이 우측으로 진행되면 무조건 모드 A를 선택하고, 카메라운동과 관계없이 물체의 운동방향이 좌측으로 진행되면 무조건 모드 B를 선택한다. 덧붙여, 카메라가 좌측운동상태이고 물체의 운동이 없으면 모드 A를 선택하고, 카메라가 우측운동상태이고 물체의 운동이 없으면 모드 B가 선택된다.
한편, 현재화상의 카메라 및/또는 물체의 운동종류를 결정하는 구체적인 방법을 도 11의 단계 1102 내지 1112, 그리고 도 12를 참조하여 설명한다.
도 11의 흐름도에서, 단계 1101에서 지연화상이 결정되면, 현재화상은 일차결정영역(Primary Decision Area; 이하, 'PDA'라 함)과 이차결정영역(Secondary Decision Area; 이하, 'SDA'라 함)으로 분할된다(단계 1102). 일차결정영역(PDA)은 도 12에 보여진 전체화상영역에서 안쪽 사각형[τNX,(1-τ)NX]×[τNy,(1-τ)Ny]을 제외한 영역이고, 이차결정영역(SDA)은 [τNX,(1-τ)Nx]×[τNy,(1-τ)Ny]영역이다. τ값의 범위는 [0.0,0.5]에 있다. PDA는 화상전체의 움직임(일례로, 배경의 움직임)에 관련된 카메라운동을 결정하고, SDA에서는 화상내의 카메라 및/또는 물체운동을 결정한다.
카메라운동방향을 결정하는 PDA내 매크로블록들의 수평동벡터성분은 음의 부호, 영의 부호, 양의 부호를 가지고 있다. 단계 1103에서 부호에 따라 PDA의 각 매크로블록의 수평운동성분이 분류된다. 다음에 음의 부호의 갯수, 영의 부호의 갯수, 및 양의 부호의 갯수가 계산된다(단계 1104). 이 갯수들을 각각 PDA[0], PDA[1], PDA[2]로 정한다. PDA[0], PDA[1], PDA[2]에서 가장 갯수가 많은 것을PDA[i*]라 정한다(단계 1105). 여기서, i*∈{0,1,2}. i*는 제 1방향으로서, 표 3 및 표 4에서 사용할 PDA내에서의 운동방향을 '+','0','-'중의 하나로 결정한다. 이 결과는 나중에 단계 1112에서 사용된다.
한편, SDA를 해석함으로써 화상의 물체 및/또는 카메라의 운동종류(물체만 운동, 카메라만 운동, 물체 및 카메라 모두 운동)가 분석된다. 먼저 SDA내에 있는 매크로블록동벡터의의 수평성분의 부호를 분류한다(단계 1106). 다음에 음의 부호의 갯수, 영의 부호의 갯수, 및 양의 부호의 갯수를 계산한다(단계 1107). 이러한 갯수들을 SDA[0], SDA[1], SDA[2]로 정한다. 이들중에서 PDA[i*]에 대응하는 SDA[i*]를 제외한 나머지 2개중에서 가장 갯수가 많은 것을 선택하고, SDA[j*]라 정한다(단계 1108). j*를 제 2방향으로 정한다. 또한 제 2방향을 제외한 나머지 두개중에서 갯수가 많은 것을 선택하고, 이것을 제 3방향으로 정할 수도 있다.
SDA에는 카메라 및 물체의 운동이 동시에 존재할 수 있다. 따라서 제 2방향에 대한 정확성이 조사된다. 제 2방향은 초기에 물체운동으로 가정된다. 다음 단계는 제 2방향이 물체운동에 의한 방향인지, 또는 카메라운동에 의한 방향인지를 결정해야한다. 다음과 같은 방법을 사용하였다.
첫째, SDA내에서의 제 1방향과 제 2방향에 있는 갯수들의 비율 γSDA은 수학식 16에 의해 계산된다(단계 1111).
둘째, SDA내의 수평거리 [τNx,(1-τ)Nx]에서 수평운동성분이 균등하게 분포되어 있을때의 평방편차 σU 2과 제 2방향에 있는 수평운동성분의 화상내에서의 수평 위치값들의 평방편차 σSDA 2(단계 1109에서 계산)의 비율 γσ이, 수학식 17을 이용하여 계산된다(단계 1110).
단계 1111에서 구한 γSDA가 임계값 Tγ보다 크고, 단계 1110에서 구한 γσ가 1보다 크면 제 2방향은 변경없고, 그렇지 않으면 제 2방향은 제 3방향에 의해 대체될 수 있다. 제 2방향이 '+'(우측운동)을 가리키거나, 제 1방향이 '-'(좌측 운동) 및 제 2방향이 '0'(정지상태)을 가리키면 표 3에 근거하여 모드 A가 선택되고, 다른 모든 경우에는 표 4에 근거하여 모드 B가 선택된다(단계 1112).
수평운동화상의 경우, 화상내의 카메라 및/또는 물체의 운동종류에 따라 모드 A 또는 모드 B가 전술한 바와 같이 결정되면, 현재화상 및 지연된 이전화상은 좌/우측화상결정부(150)에서 양안에 적절히 입체영상으로 디스플레이된다.
도 5에 보여진 합성비수평운동화상발생부(540)의 동작을 도 13 및 도 14를 참조하여 설명한다. 수평/비수평운동화상결정부(510)에서 현재화상의 운동유형이 비수평운동화상으로 결정되면, 합성비수평운동화상발생부(540)는 비수평운동화상인 현재화상내의 카메라 및/또는 물체의 운동유형에 따라 적응적으로 입체영상을 생성한다.
도 13을 참조하면, 합성비수평운동화상발생부(540)는, 먼저 전술의 수평운동화상의 경우에 설명된 방법에 근거하여, 비수평운동화상인 현재화상내의 카메라 및/또는 물체의 운동종류를 판단한다.
단계 1300에서, 비수평운동화상인 현재화상이 카메라와 물체가 모두 운동하는 화상인 것으로 결정되면, 도 11의 단계 1105에서 얻어지는 제 1방향을 카메라운동방향으로 정하고(단계 1301), 카메라운동방향과 반대인 정지 또는 운동 매크로블록들을 추출한다(단계 1302). 다음으로, 카메라운동방향을 갖는 매크로블록들에는 동일한 양의(positive) 시차값을 주고, 다른 매크로블록들은 영(0)의 시차를 갖게 한다(단계 1303). 즉 현재화상내 매크로블록들은 영의 시차 또는 임의의 값의 양의 시차를 갖게 된다. 다음으로, 결정된 시차값만큼 매크로블록을 수평이동시켜(단계 1309) 비수평운동화상에 대한 합성화상을 생성한다(단계 1310).
단계 1300 및 단계 1304에서, 비수평운동화상인 현재화상이 카메라는 정지상태이고 물체만 운동하는 화상으로 결정되면, 정지상태인 매크로블록들에는 동일한 양의 시차를 주고, 운동 매크로블록들에는 영(0)의 시차를 준다(단계 1305). 그리고, 결정된 시차값만큼 매크로블록을 수평이동시켜(단계 1309) 비수평운동화상에 대한 합성화상을 생성한다(단계 1310).
단계 1300 및 단계 1304에서, 비수평운동화상인 현재화상이 물체는 운동하지않고 카메라만 운동하는 화상으로 결정되면, 카메라의 수평운동성분의 부호와 다른 동벡터를 수정하며(단계 1306), 정확한 동벡터를 얻기 위해 에지(edge)정보를 이용한다. 단계 1307에서 매크로블록의 에지방향이 결정된다. 이를 도 14를 참조하여 구체적으로 설명한다.
1) 카메라운동방향이 좌측인지 또는 우측인지는 도 11의 단계 1105에서 설명한 방식으로 결정된다. 매크로블록의 수평동벡터성분이 카메라운동방향과 다른 경우에는 동벡터를 수정한다. 예를 들면, 현재화상내 임의의 매크로블록 MB(n1, n2)의 동벡터가 카메라운동방향과 다르면 해당 매크로블록 MB(n1, n2)의 동벡터를 이전매크로블록 MB(n1-1,n2)의 동벡터값으로 대체한다. MB(n1+1,n2)는 구현의 어려움 때문에 이용하지 않는다.
2) 현재화상내의 각 매크로블록에서 에지가 존재하는지를 검사한다. 이때, 도 14에 보여진 5종류의 방향필터를 사용한다. 실제 매크로블록의 크기는 16 ×16인데, 설명의 편의를 위해, 8 ×8크기로 가정한다. 먼저 T5를 이용하여 매크로블록에 에지가 존재하는지를 조사한다. 매크로블록내의 픽셀값의 평방편차가 임계값 T보다 크면 에지가 존재하고, 그렇지 않으면 에지가 존재하지 않는다. 에지가 존재하면 T1, T2, T3, T4에서 평방편차를 구하여 가장 최소값을 갖는 필터의 에지방향을 해당 매크로블록의 에지방향으로 결정한다. 따라서 현재화상내의 각 매크로블록은 비-에지(non-edge) MB 및 에지 MB로 분류되며, 에지 MB는 에지방향을 갖는다. 수직에지는 입체감에 큰 영향을 미치므로, 현재 에지매크로블록으로는 이것의 바로 위 매크로블록 스캔라인에 있는 3개의 매크로블록들중에서 에지방향을 가지는 에지매크로블록을 이용한다.
3) 카메라운동에서는 현재화상은 이전화상의 운동과 밀접한 관계가 있다. 따라서 운동시차를 구할 때에는 이전 매크로블록의 동벡터를 고려한다.
단계 1308에서는 동벡터가 시차로 변환되고, 개선된 시차값이 계산된다. 추출한 각 매크로블록의 동벡터는 수평성분과 수직성분으로 구성되어 있다. 그리고 동벡터의 수직성분은 입체영상을 시청할때 깊이감 상실로 인한 눈의 피로를 야기한다. 그러므로, 동벡터의 수직성분을 없애기 위해 동벡터를 수평시차값으로 변환한다.
동벡터의 시차변환은 다음의 세가지 방법을 이용한다. 매크로블록의 동벡터가 얻어지면 수직운동성분의 영향을 없애기 위해, 동벡터의 놈(norm) dMB을 수학식 18을 이용하여 구한다.
여기서, dx와 dy는 매크로블록 동벡터의 수평 및 수직 성분이다.
또는, 연산량을 줄이기 위해 수학식 19를 이용할 수도 있다.
또한, 수평성분만을 고려하여 수학식 20을 이용할 수도 있다.
여기서, 수학식 20은 연산량을 최대로 줄일 수 있다.
음의 시차를 얻기 위해서는 모든 매크로블록을 오른쪽으로 수평이동시켜 왼쪽 화상을 합성한다. 양의 시차에선 입체영상을 시청할 때 스크린에서 후면으로 3-D 깊이감이 발생한다. 양의 시차를 얻기 위해서는, 실제의 수평시차는 수학식 21을 이용하여 구한다.
여기서, MAX(dMB)는 미리 정해진 값 또는 각 화상의 매크로블록의 운동 놈의 최대치로 정할 수 있다.
최종적으로, 단계 1308에서, 에지를 이용하여 개선된 시차값은 수학식 22를 사용하여 구할 수 있다.
여기서, δ는 (n1,n2)의 매크로블록과 (n1-i,n2-1)에 있는 매크로블록간의 에지방향의 차이에 대한 가중치이다. δ값은, 에지방향차이가 0도이면 1, 45도이면 1/2, 90도이면 0이다. 또는 δ값은 다른 방법으로 정할 수도 있다. w1,w2는 (n1,n2)에있는 현재 매크로블록 및 이전화상의 (n1,n2)에 있는 매크로블록들간의 시차값에 대한 가중치이며, 임의로 정한다. MBk는 k번째 화상의 매크로블록을 의미한다. 수학식 22에 의해 개선된 시차값이 구해지면, 그 시차값만큼 매크로블록을 수평이동시켜(단계 1309), 비수평운동화상의 입체영상을 위한 합성화상을 생성한다(단계 1310).
도 5에 보여진 합성고속운동화상발생부(550)의 동작을 도 15를 참조하여 설명한다. 수평/고속운동화상결정부(520)에서 현재화상의 운동유형이 고속운동화상으로 결정되면, 합성고속운동화상발생부(550)는 고속운동화상에 대응하는 입체영상을 위한 합성화상을 생성한다.
도 15를 참조하면, 합성고속운동화상발생부(550)는 현재화상의 바로 이전화상을 추출한다(단계 1500). 추출된 이전화상은 단계 1504에서 사용된다. 다음으로, 현재화상의 모든 매크로블록들중에서 최대수평시차임계값 LH보다 큰 동벡터수평성분을 갖는 매크로블록들, 즉 고속운동매크로블록들을 추출하고(단계 1501), 추출된 고속운동매크로블록들의 동벡터수평성분을 LH로 대체한다(단계 1502). 다음으로, 그 LH값만큼 해당 매크로블록을 수평이동한다(단계 1503). 수평이동된 매크로블록과 단계 1500에서 추출된 이전화상을 합성하여(단계 1504), 고속운동화상의 입체영상을 위한 합성화상을 생성한다.
도 5에 보여진 합성정지화상발생부(530)의 동작을 도 16을 참조하여 설명한다. 운동/정지화상결정부(500)에서 현재화상의 운동유형이 정지화상으로 결정되면, 합성정지화상발생부(530)는 정지화상내의 소정 각 블록의 밝기 및/또는 그 표준편차를 이용하여 입체영상을 위한 합성화상을 생성한다.
보다 구체적으로는, 합성정지화상발생부(530)는 먼저 현재화상인 정지화상이 컬러화상이면 그레이레벨화상(gray level picture)으로 변환하고(단계 1600), 이를 N ×N 블록으로 분할한다(단계 1610). 다음에는, 그레이레벨화상내 각 블록에 대해 평균밝기(μ) 및 표준편차(σ)를 계산한다(단계 1620). 이때, 각 블록에 대한 평균밝기(μ)는 수학식 23을 이용하여 계산한다.
여기서, N은 블록의 크기이고, f(i,j)는 해당 픽셀의 그레이레벨값이다.
또한, 각 블록에 대한 표준편차(σ)는 수학식 24를 이용하여 계산한다.
단계 1620이 수행되면, 현재화상내 모든 블록들에 대한 최소평균밝기(μmin), 최대평균밝기(μmax), 최소표준편차(σmin), 및 최대표준편차(σmax)를 구한다(단계 1630).
단계 1620 및 1630이 끝나면, 수학식 25a 내지 25f를 이용하여, 평균밝기(μ), 표준편차(σ), 최소평균밝기(μmin), 최대평균밝기(μmax), 최소표준편차(σmin),및 최대표준편차(σmax) 각각에 대하여 정규화된(normalized) 값을 구한다(단계 1640).
여기서, σmax N의 최대값은 1.0으로 정한다. 그리고, MAX(σ)는 픽셀값이[0,255]에 균등하게 분포되어 있을 때의 균일분포(uniform distribution)의 표준편차로서, 수학식 26을 이용하여 구한다.
다음으로, 수학식 27a 및 수학식 27b을 이용하여 각 블록의 정규화된 평균밝기(μN) 및 정규화된 표준편차(σN)를, 대응하는 깊이값들(Dμ,Dσ)로 변환한다(단계 1650).
여기서, A1,B1,A2,B2는 각각 수학식 28a 내지 수학식 28d를 이용하여 계산된다.
단계 1650이 끝나면, 수학식 29를 이용하여 Dμ와 Dσ를 통합한 깊이값(D)을 계산한다(단계 1660).
여기서, D 및 ω는 각각 0.0과 1.0 사이의 값이다. 이에 따라, 각 블록마다에서 해당 블록의 밝기가 클수록 대응하는 깊이값은 크게 할당되고, 밝기가 어두울수록 대응하는 깊이값은 작게 할당된다.
다음에는, 단계 1660에서 얻어진 깊이값(D)을 수학식 30을 이용하여 수평시차값(px)으로 변환한다(단계 1670).
단계 1670에서 수평시차값(px)이 얻어지면, 각 블록을 대응하는 수평시차값(px)만큼 수평이동시켜 정지화상의 입체영상의 위한 합성화상을 생성한다(단계 1680).
도 1의 좌/우측화상결정부(150)는 입체영상생성부(140)로부터 현재화상 및 합성화상을 수신하며, 현재화상을 입체영상을 구성하는 좌측화상 및 우측화상중의 어느 한쪽으로 결정하고, 합성화상을 다른 한쪽으로 결정한다. 보다 구체적으로는, 수신된 현재화상의 운동유형이 수평운동화상이면, 표 2 내지 표 4에 관련하여 설명된 방법에 따라 모드 A 또는 모드 B를 결정한다. 그리고, 수신된 현재화상의 운동유형이 수평운동화상이 아닌 운동유형들에서는, 수신된 현재화상을 좌측화상으로, 합성화상을 우측화상으로 결정하는 것이 바람직하다.
도 1의 이전화상저장부(160)는 전술한 바와 같이 입체영상생성부(140)의 합성화상발생에 필요한 복원된 이전화상들을 저장하며, 현재화상보다 이전에 있는 K개의 화상들을 저장한다. 새 화상이 저장되면, 이전화상저장부(160)내에 가장 먼저 저장된 이전화상은 없어진다.
도 1의 DAC(170, 180)는 좌/우측화상결정부(150)에서 출력되는 좌/우측화상데이터를 아날로그 영상신호로 변환하여 디스플레이용 버퍼(미도시)에 저장한다.
전술한 과정을 거쳐 모니터에 디스플레이되는 입체영상을 감상하기 위해서는 입체영상과 동기시켜 주는 입체안경이 필요하다.
한편, 도 1의 실시예로부터 개선된, 본 발명의 바람직한 다른 실시예가 도 17 내지 도 21에 보여졌다. 도 17의 실시예는, 도 1의 장치에 유기적으로 더 결합되는 운동유형재결정부(190)에 의해, 시간적으로 연속하는 입체영상들간의 화상 떨림 또는 진동을 월등하게 더 감소시킨다. 도 17의 구성들중, 도 1과 동일한 부호 및 명칭으로 표기된 구성들은, 도 1의 대응하는 그것들과 동일한 기능을 수행하므로 상세한 설명을 생략한다.
도 17에 보여진 운동유형재결정부(190)는, 이전화상의 운동유형 및 현재화상의 운동유형의 조합에 기초하여, 운동유형결정부(130)에 1차적으로 결정된 현재화상의 운동유형을 적응적으로 재결정한다. 그리고, 입체영상생성부(140) 및 좌/우측화상결정부(150)는 각각 운동유형재결정부(190)에서 재결정된 현재화상의 운동유형에 근거하여 현재화상에 대응하는 입체영상을 생성하고 좌/우측화상을 결정한다.
도 18을 참조하면, 도 17의 운동유형재결정부(190)는, 먼저 이전화상의 운동유형과 현재화상의 운동유형을 비교한다(단계 1800). 여기서, 이전화상은 현재화상과 시간적으로 연속하는 직전의 이전화상이 바람직하다. 그리고, 여기서 고려되는 화상의 운동유형은 정지화상, 비수평운동화상, 및 수평운동화상으로 분류되며, 여기서의 수평운동화상은 운동유형결정부(130)에서 고려된 고속수평운동화상 및 수평운동화상을 포괄한다.
단계 1800의 비교결과, 두 화상의 운동유형이 서로 다르면 운동유형재결정부(190)는 이종운동유형결정알고리즘에 따라 현재화상의 운동유형을 재결정하고(단계 1810), 두 화상의 운동유형이 서로 같으면 동종운동유형결정알고리즘에 따라 현재화상의 운동유형을 재결정한다(단계 1820).
단계 1810에 관련하여, 이전화상과 현재화상의 운동유형이 서로 다른 경우에 현재화상의 운동유형을 적응적으로 재결정하는 방법을, 도 19 및 도 20을 참조하여 구체적으로 설명한다. 전술한 바와 같이, 운동유형재결정부(190)에서 고려되는 화상의 운동유형은 정지화상, 비수평운동화상, 및 수평운동화상의 세가지이다. 그러므로, 이전화상의 운동유형이 정지화상인 경우에는, 현재화상의 운동유형은 비수평운동화상 또는 수평운동화상이 되며, 이 경우에는 현재화상의 운동유형은 수정되지 않는다. 다른 두가지 경우들은, 운동유형결정부(130)에서 현재화상의 각 운동유형결정에 사용된 임계치들을, 이전화상 및 현재화상의 운동유형의 각 조합(combination)에 따라 적응적으로 재조정하여 현재화상의 운동유형을 재결정한다. 이에 따라, 이전화상과 현재화상간의 상관성이 상당히 큰 경우에는 현재화상의 운동유형을 이전화상의 운동유형으로 수정함으로써, 입체영상의 시청시 시간적으로 연속하는 입체영상들간의 흔들림을 감소시킨다.
다음으로, 이전화상의 운동유형이 비수평운동화상인 경우에는, 현재화상의 운동유형은 정지화상 또는 수평운동화상이 되며, 도 19에 보여진 알고리즘에 따라 현재화상의 운동유형이 적응적으로 재결정된다.
도 19를 참조하면, 먼저 이전화상의 운동유형이 비수평운동화상으로 판별되고(단계 1900), 운동/정지화상결정부(500)에서 현재화상의 운동유형이 정지화상으로 1차적으로 결정된 것으로 판별되면(단계 1910), 운동유형재결정부(190)는 수학식 7에 따른 현재화상의 비율 αS의 크기를, 새로이 조정된 임계값 'TSS'와 비교한다(단계 1920). 여기서, δS=[0,1-TS]의 값으로 정한다. 그러므로, 새로이 조정된 임계값(TSS)은 1차결정시의 임계값(TS)보다 적절히 상향조정된다. 단계 1920의 비교결과, 현재화상으로부터 얻어진 αS의 크기가 상향조정된 임계값(TSS)보다 작지 않으면 현재화상의 운동유형은 불변(정지화상)으로 결정되고(단계 1930), 작으면 현재화상의 운동유형은 이전화상의 운동유형인 비수평운동화상으로 재결정된다(단계 1940).
한편, 단계 1900 및 1910에서, 이전화상의 운동유형이 비수평운동화상이고 현재화상의 운동유형이 수평운동화상으로 판별되면, 운동유형재결정부(190)는 수학식 9에 따른 현재화상의 비율 αV의 크기를, 새로이 조정된 임계값 'TVV'과 비교한다(단계 1950). 여기서, δV=[0,TV]의 값으로 정한다. 그러므로, 새로이 조정되는 임계값(TVV)은 1차결정시의 임계값(TV)보다 적절히 하향조정된다. 단계 1950의 비교결과, 현재화상에 대응하는 αV의 크기가 하향조정된 임계값(TVV)보다 크지 않으면 현재화상의 운동유형은 불변(수평운동화상)으로 결정되고(단계 1930), 크면 현재화상의 운동유형은 이전화상의 운동유형인 비수평운동화상으로 재결정된다(단계 1940).
그러므로, 단계 1940에서, 현재화상의 운동유형이 비수평운동화상으로 재결정되는 경우들에서는, 현재화상의 운동벡터필드는 이전화상의 운동벡터필드로 대체되고, 현재화상내의 카메라 및/또는 물체의 운동종류는 이전화상의 그것들로 대체된다. 이에 따라 입체영상생성부(140)에서는 비수평운동화상에 대응하는 입체영상이 생성된다.
한편, 이전화상의 운동유형이 수평운동화상인 경우에는, 현재화상의 운동유형은 정지화상 또는 비수평운동화상이 되며, 도 20에 보여진 알고리즘에 따라 현재화상의 운동유형이 적응적으로 재결정된다.
도 20을 참조하면, 먼저 이전화상의 운동유형이 수평운동화상으로 판별되고(단계 2000), 운동/정지화상결정부(500)에서 현재화상의 운동유형이 정지화상으로 1차적으로 결정된 것으로 판별되면(단계 2010), 운동유형재결정부(190)는 수학식 7에 따른 현재화상의 비율 αS의 크기를 새로이 조정된 임계값 '(TSS)'과 비교한다(단계 2020). 여기서, δS=[0,1-TS]의 값으로 정한다. 그러므로, 새로이 조정되는 임계값(TSS)은 1차결정시의 임계값(TS)보다 적절히 상향조정된다. 단계 2020의 비교결과, 현재화상으로부터 얻어진 αS의 크기가 상향조정된 임계값(TSS)보다 작지 않으면 현재화상의 운동유형은 불변(정지화상)으로 결정되고(단계 2030), 작으면 현재화상의 운동유형은 이전화상의 운동유형인 수평운동화상으로 재결정된다(단계 2040).
한편, 단계 2000 및 2010에서, 이전화상의 운동유형이 수평운동화상이고 현재화상의 운동유형이 비수평운동화상으로 판별되면, 운동유형재결정부(190)는 수학식9에 따른 현재화상의 비율 αV의 크기를, 새로이 조정된 임계값 'TVV'과 비교한다(단계 2050). 여기서, δV=[0,TV]의 값으로 정한다. 그러므로, 새로이 조정되는 임계값(TVV)은 1차결정시의 임계값(TV)보다 적절히 상향조정된다. 단계 2050의 비교결과, 현재화상에 대응하는 αV의 크기가 상향조정된 임계값(TVV)보다 작지 않으면 현재화상의 운동유형은 불변(비수평운동화상)으로 결정되고(단계 2030), 작으면 현재화상의 운동유형은 이전화상의 운동유형인 수평운동화상으로 재결정된다(단계 2040).
그러므로, 단계 2040에서, 현재화상의 운동유형이 수평운동화상으로 재결정되는 경우들에서는, 현재화상의 지연요소 fd는 이전화상의 지연요소 fd로 대체되고, 또한 현재화상의 모드(모드 A 또는 모드 B)는 이전화상의 그것으로 대체된다. 이에 따라 입체영상생성부(140)에서는 대체된 지연요소 fd에 대응하는 이전화상이 선택되고, 좌/우측화상결정부에서는 대체된 모드에 따라 입체영상의 디스플레이가 결정된다.
도 21은 이전화상과 현재화상의 운동유형이 서로 동일한 경우에, 현재화상의 운동유형을 재결정하는 방법을 개략적으로 보여준다. 도 21을 참조하면, 이전화상과 현재화상의 운동유형이 모두 정지화상이면(단계 2100), 현재화상의 운동유형은 불변(정지화상)이다(단계 2110).
다음으로, 이전화상과 현재화상의 운동유형이 모두 비수평운동화상이면(단계2120), 운동유형재결정부(190)는 현재화상인 비수평운동화상내의 카메라 및/또는 물체의 운동종류를 재결정한다(단계 2130). 비수평운동화상내에는 카메라 및 물체의 운동이 모두 존재하는 경우, 물체만 운동하는 경우, 카메라만 운동하는 경우의 세가지 운동종류가 있다. 이러한 비수평운동화상내의 카메라 및/또는 물체의 운동종류를 재결정하는 방법을 도 12에 보여진 PDA와 SDA를 참조하여 설명한다. PDA내에서는 수학식 31에 따른 값을 계산한다.
여기서, 'mnl'이다. 그리고, 도 12에 관련하여 설명된 PDA[0], PDA[1], PDA[2]중에서 가장 갯수가 많은 것을 PDA[l]로 정하고 나머지 두가지 경우들(PDA[m],PDA[n])중에서 다음으로 갯수가 많은 것을 취하여 수학식 31을 계산한다. 다음으로, 수학식 31에 따라 계산된 비율 γPDA의 값이 임계값 TPDA보다 작으면, 전술의l값은 이전화상의l값으로 대체된다. 여기서, TPDA=[0.0, 1.0]
PDA에서와 마찬가지로, SDA내에서는 수학식 32에 따른 값을 계산한다.
여기서, 'qrp'이다. 그리고, SDA[0], SDA[1], SDA[2]중에서 가장 갯수가 많은 것을 SDA[p]로 정하고 나머지 두가지 경우들(SDA[q],SDA[r])중에서 다음으로갯수가 많은 것을 취하여 수학식 32를 계산한다. 다음으로, 수학식 32에 따라 계산된 비율 γSDA의 값이 임계값 TSDA보다 작으면, 전술의p값은 이전화상의p값으로 대체된다. 여기서, TSDA=[0.0, 1.0]
전술한 방식에 의하여 얻어진lp값을 이용하여, 운동유형재결정부(190)는 현재화상인 비수평운동화상내의 카메라 및/또는 물체의 운동종류를 재결정한다. 재결정된 운동종류는 입체영상생성부(140)에서 현재화상인 비수평운동화상에 대응하는 입체영상의 생성에 사용된다.
도 21의 흐름도에서, 이전화상과 현재화상의 운동유형이 모두 수평운동화상이면(단계 2140), 운동유형재결정부(190)는 수평운동화상에 대응하는 입체영상에 이용되는 지연요소 및 모드(모드 A 또는 모드 B)를 재결정한다.
먼저, 현재화상인 수평운동화상내의 카메라 및/또는 물체의 운동종류를 재결정하기 위하여, 전술의 단계 2130에서와 같은lp값을 구하고, 이를 표 2 내지 표 4에 적용하여 모드 A 또는 모드 B를 결정한다. 여기에서 결정된 모드는 좌/우측화상결정부(150)에서 수평운동화상에 대응하는 입체영상의 디스플레이에 사용된다.
한편, 이전화상과 현재화상간의 지연요소의 급격한 변화를 억제하기 위하여, 수학식 33 또는 수학식 34를 이용하여, 수평운동화상인 현재화상의 입체영상생성에 사용될 지연요소 fd를 이전화상의 지연요소와 현재화상의 지연요소를 모두 고려하여 구한다.
수학식 33 및 34에서, 최대수평시차임계값 LH는 수학식 11을 이용하여 구한다. dxmax(k)는 현재화상의 최대수평운동속도이고, dxmax(k-1)은 이전화상의 최대수평운동속도이다. 그리고, 가중치들인 ω및 (1-ω)는 적절하게 정해진다.
그러므로, 전술한 운동유형재결정부(190)에 의해 현재화상의 운동유형이 이전화상 및 현재화상의 각 운동유형의 조합에 따라 적응적으로 재결정되며, 그에 따른 입체영상의 생성 및 좌/우측화상결정에 의해 시간적으로 연속하는 입체영상들간의 흔들림이 현저하게 감소한다.
따라서, 본 발명에 따른 입체영상생성방법 및 그 장치를 이용하면 화상의 다양한 운동유형에서도 자연스럽고 안정된 입체영상을 시청할 수 있게 된다. 특히, 본 발명은 부호화된 MPEG 데이터를 이용하여 효율적으로 입체영상을 생성할 수 있게 하며, 이에 따라 입체영상생성을 위한 알고리즘 및 시스템의 복잡도가 월등하게 단순화된다.
한편, 도 1에 점선으로 표기된 MPEG 복호기(200)는 부호화된 비트스트림으로부터 압축부호화되기 이전의 원래의 영상을 복원하여 이전화상저장부(160)로 공급한다. 그리고, 이러한 MPEG 복호기의 상세 구성 및 동작은, 이 기술분야의 당업자에게는 자명하게 이해될 것이므로 상세한 설명을 생략한다.
또한, 본 발명에 따른 도 1 및 도 17의 실시예는 MPEG-규격으로 부호화된 영상데이터에 적용하였으나, MPEG-규격과 다른 부호화방식들로 부호화된 영상데이터에 대해서도 적용가능하며 이 또한 본 발명의 기술범위내에 속함은, 본 발명의 기술적 사상 및 그 바람직한 실시예들을 잘 이해한 이 기술분야의 당업자에게는 자명하다.
또한, 본 발명에서 제안된, 화상의 다양한 운동유형에 적응적으로 안정된 입체영상을 생성하는 방법 및 그 장치는, MPEG 부호화된 데이터 뿐만 아니라, NTSC/PAL/SECAM 등의 아날로그방식의 영상신호에도 적용가능하며 이 또한 본 발명의 기술범위에 속함은 이 기술분야의 당업자에게는 자명하다.
한편, 본 발명의 기술범위내에서 언급되지 않은 다수의 변형된 실시예들이 도출가능함은, 본 발명의 기술적 사상 및 바람직한 실시예들을 잘 이해한 이 기술분야의 당업자에게는 자명할 것이다.
본 발명은 화상의 소정의 운동해석방법을 이용하여 화상의 운동유형을 정지화상, 비수평운동화상, 수평운동화상 및 고속운동화상중의 하나로 분류하며, 분류된 화상의 각 운동유형에 최적의 입체영상을 생성함으로써, 화상의 다양한 운동유형에서도 자연스럽고 안정된 입체영상을 얻을 수 있게 한다. 또한 본 발명은 MPEG부호화된 데이터로부터 동벡터를 추출 및 생성하여 입체영상을 효율적으로 생성함으로써, 입체영상생성을 위한 알고리즘 및 시스템의 복잡도를 월등하게 단순화시킨다. 본 발명은 MPEG을 이용하는 MPEG-2 HDTV, MPEG-2 DVD Player, MPEG-1 Video CD 등에 적용하여 입체영상을 시청케 할 수 있고, MPEG을 이용하지 않는 NTSC/PAL/SECAM방식에 따른 영상신호를 위한 TV, VCR 등에도 사용될 수 있다. 그리고, 본 발명에 따른 입체영상생성장치를 의료영상화시스템에 적용하는 경우, 의료영상을 입체영상으로 판독케 함으로써 그 진단효율을 월등히 향상시킬 수 있다.

Claims (31)

  1. 영상데이터로부터 입체영상을 생성하는 방법에 있어서,
    (1) 상기 영상데이터에 따른 각 화상내의 동벡터들을 이용하여, 현재화상의 운동유형을 정지화상, 비수평운동화상, 수평운동화상 및 고속운동화상중의 하나로 결정하는 단계;
    (2) 상기 영상데이터에 따른 이전화상들 및 상기 결정된 운동유형을 이용하여 현재화상에 대응하는 합성화상을 생성하고, 현재화상 및 그 합성화상을 출력하는 단계; 및
    (3) 상기 출력되는 현재화상 및 그 합성화상을 수신하며, 제 (1)단계에서 결정된 운동유형에 따라 현재화상을 입체영상을 구성하는 좌측화상 및 우측화상중의 어느 한쪽으로 결정하고 합성화상을 다른 한쪽으로 결정하는 단계를 포함하는, 입체영상생성방법.
  2. I, B 및 P화상들(pictures)을 담고있는 MPEG부호화된 데이터를 이용하여 입체영상(stereoscopic image)을 생성하는 방법에 있어서,
    (1) 상기 부호화된 화상데이터를 입력받아, 각 화상내의 매크로블록들에 개별적으로 대응하는 동벡터들을 생성하여 저장하는 단계;
    (2) 상기 부호화된 화상데이터로부터 복원되는 화상을 K개만큼 저장하는 단계;
    (3) 제 (1)단계에서 저장된 동벡터들을 이용하여 현재화상에 대응하는 운동유형을 결정하는 단계;
    (4) 제 (2)단계에서 저장된 이전화상들 및 제 (3)단계에서 결정된 운동유형을 이용하여 현재화상에 대응하는 합성화상을 생성하고, 현재화상 및 합성화상을 출력하는 단계; 및
    (5) 제 (4)단계에서 출력되는 현재화상 및 합성화상을 수신하며, 제 (3)단계에서 결정된 운동유형을 이용하여, 현재화상을 입체영상을 구성하는 좌측화상 및 우측화상중의 어느 한쪽으로 결정하고 합성화상을 다른 한쪽으로 결정하는 단계를 포함하는, 입체영상생성방법.
  3. 제 2항에 있어서, 상기 제 (1)단계는,
    상기 화상데이터를 담고있는 비트스트림을 구문분석하여 I, P, B화상의 데이터를 추출하며, 이를 이용하여 각 화상의 매크로블록별로 동벡터를 추출 및 생성하여 대응하는 화상의 동벡터필드를 구성하는, 입체영상생성방법.
  4. 제 3항에 있어서, 상기 제 (1)단계는,
    상기 추출되는 화상데이터가 B화상의 데이터인 경우, 그 화상데이터에 포함된 동벡터를 매크로블록별로 추출하여 이를 예측부호화시에 적용된 화상간격(M)을 고려하여 스케일링하며, 동벡터를 갖지 않는 매크로블록에 대해서는 보간기법을 적용하여 해당 매크로블록의 동벡터를 구하며,
    상기 스케일링된 동벡터 및 보간된 동벡터로 B화상의 동벡터필드를 구성하는, 입체영상생성방법.
  5. 제 3항에 있어서, 상기 제 (1)단계는,
    상기 추출되는 화상데이터가 P화상의 데이터인 경우, 그 화상데이터에 포함된 동벡터를 매크로블록별로 추출하고 이를 예측부호화시에 적용된 I/P화상과 P화상간의 간격(M)을 고려하여 스케일링하며, 동벡터를 갖지 않는 매크로블록에 대해서는 보간기법을 적용하여 해당 매크로블록의 동벡터를 구하며,
    상기 스케일링된 동벡터 및 보간된 동벡터로 P화상의 동벡터필드를 구성하는, 입체영상생성방법.
  6. 제 3항 또는 제 4항에 있어서, 상기 제 (1)단계는, 상기 추출되는 화상데이터가 I화상의 데이터인 경우, I화상의 이전에 역방향예측된 적어도 하나의 상기 B화상의 동벡터들을 이용하여 상기 I화상의 동벡터를 구하는, 입체영상생성방법.
  7. 제 6항에 있어서, 상기 I화상의 동벡터는 I화상내의 각 매크로블록과 대응하는 상기 B화상의 매크로블록들의 동벡터를 이용하여 구하며,
    상기 B화상의 대응위치 매크로블록들의 동벡터들 및 그 동벡터들의 전체방향을 모두 고려하는 제 1방식과, 상기 대응위치 매크로블록들의 동벡터들만을 고려하는 제 2방식, 및 상기 대응위치 매크로블록들의 면적만을 고려하는 제 3방식중의 하나를 이용하여 상기 I화상의 동벡터를 구하는, 입체영상생성방법.
  8. 제 2항에 있어서, 상기 제 (3)단계는, 제 (1)단계에서 저장된 동벡터들을 이용하여, 현재화상의 운동유형을 정지화상, 비수평운동화상, 수평운동화상 및 고속운동화상중의 하나로 결정하는, 입체영상생성방법.
  9. 제 1항 또는 제 8항에 있어서, 상기 현재화상의 운동유형을 정지화상, 비수평운동화상, 수평운동화상 및 고속운동화상중의 하나로 결정하는 방법은,
    현재화상의 전체매크로블록들중에서 상기 각 운동유형에 대응하는 운동특성을 갖는 매크로블록들이 차지하는 비율에 근거하여 현재화상의 운동유형을 결정하는, 입체영상생성방법.
  10. 제 9항에 있어서, 상기 현재화상의 운동유형결정방법은,
    화상의 전체매크로블록들중에서 현재화상내 정지매크로블록들이 차지하는 비율에 근거하여 현재화상의 운동유형을 정지화상과 운동화상중의 하나로 결정하는 제 1의 방법과,
    화상의 전체매크로블록들중에서 최대수직퓨전임계각과 최대수직시차임계값에 근거하는 현재화상내 비수평매크로블록들이 차지하는 비율에 근거하여 현재화상의 운동유형을 비수평운동화상과 수평운동화상중의 하나로 결정하는 제 2의 방법과,
    화상의 전체매크로블록들중에서 최대수평시차임계값에 근거하는 현재화상내고속운동매크로블록들이 차지하는 비율에 근거하여 현재화상의 운동유형을 고속운동화상과 수평운동화상중의 하나로 결정하는 제 3의 방법중의 적어도 하나를 이용하는, 입체영상생성방법.
  11. 제 1항 또는 제 8항에 있어서, 상기 현재화상의 운동유형이 정지화상으로 결정되면,
    정지화상내의 소정 각 블록의 밝기 및/또는 그 표준편차를 이용하여 깊이정보를 다르게 할당하고, 이를 수평시차로 변환하여 상기 현재화상에 대응하는 합성화상을 생성하는, 입체영상생성방법.
  12. 제 1항 또는 제 8항에 있어서, 상기 현재화상의 운동유형이 비수평운동화상으로 결정되면,
    비수평운동화상내에서 카메라 및 물체가 모두 운동하는 경우에는, 카메라운동방향과 동일한 매크로블록들과 그렇지 않은 매크로블록들간에 시차값을 다르게 할당하여 상기 현재화상에 대응하는 합성화상을 생성하며,
    비수평운동운동화상내에서 물체만 운동하는 경우에는, 운동매크로블록들과 정지매크로블록간에 시차값을 다르게 할당하여 상기 현재화상에 대응하는 합성화상을 생성하며,
    비수평운동화상내에서 카메라만 운동하는 경우에는, 현재매크로블록의 에지특성에 따라 주변의 적어도 하나의 에지매크로블록들 및 이전화상의 매크로블록의 동벡터를 이용하여 현재 매크로블록에 대응하는 시차값을 구해 상기 현재화상에 대응하는 합성화상을 생성하는, 입체영상생성방법.
  13. 제 1항 또는 제 8항에 있어서, 상기 현재화상의 운동유형이 고속운동화상으로 결정되면,
    현재화상내의 고속운동매크로블록들의 동벡터를 최대수평시차값으로 변환하여 그 최대수평시차값만큼 수평이동시키고, 이를 직전의 이전화상에 합성하여 상기 현재화상에 대응하는 합성화상을 생성하는, 입체영상생성방법.
  14. 제 1항 또는 제 8항에 있어서, 상기 현재화상의 운동유형이 수평운동화상으로 결정되면,
    최대수평시차임계값, 및 현재화상내 동벡터들의 평균수평운동속도 또는 최대수평운동속도에 근거하는 이전화상을 상기 현재화상에 대응하는 합성화상으로 발생하며,
    수평운동화상내의 상기 수평운동속도가 상대적으로 빠르면 시간적으로 가까운 이전화상을, 그리고 상기 수평운동속도가 상대적으로 느리면 시간적으로 멀리 있는 이전화상을 선택하는, 입체영상생성방법.
  15. 제 1항 또는 제 8항에 있어서, 상기 결정된 운동유형에 따라 입체영상의 좌측화상 및 우측화상을 결정하는 방법은,
    상기 결정된 현재화상의 운동유형이 수평운동화상이 아닌 운동유형들에서는 제 1모드를 선택하며,
    상기 결정된 현재화상의 운동유형이 수평운동화상인 경우에는 그 수평운동화상내의 카메라 및/또는 물체의 운동종류에 따라, 제 1모드 및 제 2모드중의 하나를 적응적으로 선택하며,
    상기 제 1모드는 현재화상을 좌측화상으로 그리고 대응하는 합성화상을 우측화상으로 결정하는 입체영상의 디스플레이모드이고, 상기 제 2모드는 현재화상을 우측화상으로 그리고 대응하는 합성화상을 좌측화상으로 결정하는 입체영상의 디스플레이모드인, 입체영상생성방법.
  16. 제 15항에 있어서, 상기 현재화상의 운동유형이 수평운동화상인 경우에는,
    수평운동화상으로 결정된 현재화상의 동벡터필드를 분석하여, 수평운동화상내에서 카메라만 좌측으로 운동하는 경우, 물체만 우측으로 운동하는 경우, 카메라 및 물체가 모두 우측으로 운동하는 경우, 카메라는 좌측으로 운동하고 물체는 우측으로 운동하는 경우들에서는 상기 제 1모드를 선택하며,
    수평운동화상내에서 카메라만 우측으로 운동하는 경우, 물체만 좌측으로 운동하는 경우, 카메라는 우측으로 운동하고 물체는 좌측으로 운동하는 경우, 카메라 및 물체가 모두 좌측으로 운동하는 경우, 카메라는 우측으로 운동하고 물체는 좌우측으로 운동하는 경우, 카메라는 좌측으로 운동하고 물체는 좌우측으로 운동하는 경우들에서는 상기 제 2모드를 선택하는, 입체영상생성방법.
  17. 제 15항에 있어서, 상기 현재화상의 운동유형이 수평운동화상인 경우에는,
    현재화상을 테두리영역인 제 1영역 및 중심영역인 제 2영역으로 양분하고, 제 1영역 및 제 2영역 각각에 속하는 매크로블록들의 수평동벡터방향들과 그 갯수, 및 그 분포도에 근거하여, 현재화상내의 카메라 및/또는 물체의 운동종류를 결정하는, 입체영상생성방법.
  18. 제 1항 또는 제 8항에 있어서, 현재화상의 운동유형을 정지화상, 비수평운동화상, 수평운동화상 및 고속운동화상중의 하나로 결정하는 상기 단계는, 시간적으로 연속하는 입체영상들간의 화상 흔들림을 월등하게 감소시키기 위해,
    현재화상 및 그 이전화상의 각 운동유형의 조합에 기초하여, 상기 결정된 현재화상의 운동유형을 적응적으로 재결정하는 단계를 더 포함하는, 입체영상생성방법.
  19. 제 18항에 있어서, 상기 재결정단계에서 고려되는 화상의 운동유형은, 정지화상, 비수평운동화상, 및 수평운동화상의 세 운동유형으로 분류되고, 여기서 수평운동화상은 상기 최초 결정시에 고려된 고속운동화상 및 수평운동화상을 포함하며,
    이전화상의 운동유형이 정지화상이면 현재화상의 운동유형에 상관없이 상기 최초에 결정된 현재화상의 운동유형을 변경하지 않는, 입체영상생성방법.
  20. 제 19항에 있어서, 이전화상과 현재화상의 운동유형이 서로 다른 경우에는,
    현재화상의 운동유형의 최초 결정시에 사용된 임계치들을 이전화상 및 현재화상의 각 운동유형의 조합에 따라 적응적으로 재조정하여 현재화상의 운동유형을 재결정하는, 입체영상생성방법.
  21. 제 19항에 있어서,
    이전화상과 현재화상의 운동유형이 모두 비수평운동화상인 경우에는, 비수평운동화상내의 카메라 및/또는 물체의 운동종류를 재결정하고 이에 근거하여 대응하는 입체영상을 생성하며,
    이전화상과 현재화상의 운동유형이 모두 수평운동화상인 경우에는, 이전화상 및 현재화상 둘 다의 수평운동속도를 고려하여 입체영상을 위한 이전화상을 결정하며, 수평운동화상내의 카메라 및/또는 물체의 운동종류를 재결정하고 이에 근거하여 입체영상의 디스플레이모드를 결정하는, 입체영상생성방법.
  22. 영상데이터로부터 입체영상을 생성하는 장치에 있어서,
    상기 영상데이터에 따른 각 화상내의 동벡터들을 이용하여, 현재화상의 운동유형을 정지화상, 비수평운동화상, 수평운동화상 및 고속운동화상중의 하나로 결정하는 운동유형결정수단;
    상기 영상데이터에 따른 이전화상들 및 상기 결정된 운동유형을 이용하여 현재화상에 대응하는 합성화상을 생성하고, 현재화상 및 그 합성화상을 출력하는 입체영상생성수단; 및
    상기 입체영상생성수단으로부터 출력되는 현재화상 및 그 합성화상을 수신하며, 상기 운동유형결정수단에서 결정된 운동유형에 따라 현재화상을 입체영상을 구성하는 좌측화상 및 우측화상중의 어느 한쪽으로 결정하고 합성화상을 다른 한쪽으로 결정하는 좌/우측화상결정부를 포함하는, 입체영상생성장치.
  23. I, B 및 P화상들(pictures)을 담고있는 MPEG부호화된 데이터를 이용하여 입체영상(stereoscopic image)을 생성하는 장치에 있어서,
    상기 부호화된 화상데이터를 입력받아, 각 화상내의 매크로블록들에 개별적으로 대응하는 동벡터들을 생성하여 저장하는 동벡터생성및저장수단;
    상기 동벡터생성및저장수단에 공급되는 화상데이터로부터 복원되는 화상을 K개만큼 저장하는 화상저장부;
    상기 동벡터생성및저장수단에 저장된 동벡터들을 이용하여 현재화상에 대응하는 운동유형을 결정하는 운동유형결정수단;
    상기 화상저장부에 저장된 이전화상들 및 결정된 운동유형을 이용하여 현재화상에 대응하는 합성화상을 생성하고, 현재화상 및 합성화상을 출력하는 입체영상생성수단; 및
    상기 입체영상생성수단으로부터 현재화상 및 합성화상을 수신하며, 상기 운동유형결정수단에서 결정된 운동유형을 이용하여, 현재화상을 입체영상을 구성하는 좌측화상 및 우측화상중의 어느 한쪽으로 결정하고 합성화상을 다른 한쪽으로 결정하는 좌/우측화상결정부를 포함하는, 입체영상생성장치.
  24. 제 23항에 있어서, 상기 동벡터생성및저장수단은,
    상기 MPEG부호화된 데이터로부터 각 I, B, P화상의 데이터를 추출하는 화상추출부;
    상기 화상추출부로부터의 B화상의 부호화된 데이터로부터 B화상의 각 매크로블록별로 동벡터를 추출 및 생성하는 B화상동벡터생성부;
    상기 화상추출부로부터의 P화상의 부호화된 데이터로부터 P화상의 각 매크로블록별로 동벡터를 추출 및 생성하는 P화상동벡터생성부;
    상기 B화상동벡터생성부에서 생성된 B화상의 동벡터를 이용하여 I화상의 동벡터를 생성하는 I화상동벡터생성부; 및
    상기 B화상동벡터생성부, P화상동벡터생성부, I화상동벡터생성부로부터 각각 입력되는 동벡터들로부터 대응하는 각 화상의 동벡터필드를 구성하는 동벡터필드구성부를 포함하는, 입체영상생성장치.
  25. 제 23항에 있어서, 상기 운동유형결정수단은,
    상기 동벡터생성및저장수단에서 생성된 현재화상에 대응하는 동벡터들을 분석하여, 현재화상의 운동유형을 정지화상, 비수평운동화상, 수평운동화상 및 고속운동화상중의 하나로 결정하는, 입체영상생성장치.
  26. 제 22항 또는 제 25항에 있어서, 상기 운동유형결정수단은,
    현재화상의 전체매크로블록들중에서 상기 각 운동유형에 대응하는 운동특성을 갖는 매크로블록들이 차지하는 비율에 근거하여 현재화상의 운동유형을 결정하는, 입체영상생성장치.
  27. 제 26항에 있어서, 상기 운동유형결정수단은, 운동/정지화상결정부, 수평/비수평운동화상결정부, 및 수평/고속운동화상결정부중의 적어도 하나를 포함하며,
    상기 운동/정지화상결정부는, 현재화상의 전체매크로블록들중에서 정지매크로블록들이 차지하는 비율에 근거하여 현재화상의 운동유형을 정지화상과 운동화상중의 하나로 결정하며,
    상기 수평/비수평운동화상결정부는, 현재화상의 전체매크로블록들중에서 최대수직퓨전임계각과 최대수직시차임계값에 근거하는 비수평매크로블록들이 차지하는 비율에 근거하여 현재화상의 운동유형을 비수평운동화상과 수평운동화상중의 하나로 결정하며,
    상기 고속/수평운동화상결정부는, 현재화상의 전체매크로블록들중에서 최대수평시차임계값에 근거하는 고속운동매크로블록들이 차지하는 비율에 근거하여 현재화상의 운동유형을 고속운동화상과 수평운동화상중의 하나로 결정하는, 입체영상생성장치.
  28. 제 22항 또는 제 25항에 있어서, 상기 입체영상생성수단은 합성정지화상발생부, 합성비수평운동화상발생부, 합성고속운동화상발생부 및 합성수평운동화상발생부중의 적어도 하나를 포함하며,
    상기 합성정지화상발생부는, 상기 운동유형결정수단에서 현재화상의 운동유형이 정지화상으로 결정되면, 현재화상내의 소정 각 블록의 밝기 및/또는 그 표준편차를 이용하여 깊이정보를 다르게 할당하고, 이를 수평시차로 변환하여 상기 합성화상을 생성하며,
    상기 합성비수평운동화상발생부는, 상기 운동유형결정수단에서 현재화상의 운동유형이 비수평운동화상으로 결정되면, 현재화상내에서 카메라 및 물체가 모두 운동하는 경우에는 카메라운동방향과 동일한 매크로블록과 그렇지 않은 매크로블록들간에 시차값을 다르게 할당하여 상기 합성화상을 생성하며, 물체만 운동하는 경우에는 운동매크로블록과 정지매크로블록간에 시차값을 다르게 할당하여 상기 합성화상을 생성하며, 카메라만 운동하는 경우에는 현재매크로블록의 에지특성에 따라 주변의 적어도 하나의 에지매크로블록들 및 이전화상의 매크로블록의 동벡터를 이용하여 현재 매크로블록에 대응하는 시차값을 구해 상기 합성화상을 생성하며,
    상기 합성고속운동화상발생부는, 상기 운동유형결정수단에서 현재화상의 운동유형이 고속운동화상으로 결정되면, 현재화상내 고속운동매크로블록들의 동벡터들을 최대수평시차값으로 변환하여 그 최대수평시차값만큼 수평이동시키고, 이를 직전의 이전화상에 합성하여 상기 합성화상을 생성하며,
    상기 합성수평운동화상발생부는, 상기 운동유형결정수단에서 현재화상의 운동유형이 수평운동화상으로 결정되면, 최대수평시차임계값 및 현재화상내 동벡터들의소정 수평운동값에 근거하는 이전화상을 상기 합성화상으로 발생하는, 입체영상생성장치.
  29. 제 22항 또는 제 25항에 있어서, 상기 좌/우측화상결정부는,
    상기 운동유형결정수단에서 현재화상의 운동유형이 수평운동화상이 아닌 운동유형들로 결정되는 경우에는 제 1모드를 선택하며,
    상기 운동유형결정수단에서 현재화상의 운동유형이 수평운동화상으로 결정되는 경우에는 그 수평운동화상내의 카메라 및/또는 물체의 운동종류에 따라 제 1모드 및 제 2모드중의 하나를 적응적으로 선택하며,
    상기 제 1모드는 현재화상을 좌측화상으로 그리고 대응하는 합성화상을 우측화상으로 결정하는 입체영상의 디스플레이모드이고, 상기 제 2모드는 현재화상을 우측화상으로 그리고 대응하는 합성화상을 좌측화상으로 결정하는 입체영상의 디스플레이모드인, 입체영상생성장치.
  30. 제 22항 또는 제 25항에 있어서,
    시간적으로 연속하는 입체영상들간의 화상 흔들림을 월등하게 감소시키기 위해, 상기 운동유형결정수단에서 결정된 현재화상의 운동유형을, 현재화상 및 그 이전화상의 각 운동유형의 조합에 기초하여 적응적으로 재결정하는 운동유형재결정부를, 상기 운동유형결정수단과 입체영상생성수단 사이에 더 포함하며,
    상기 재결정된 현재화상의 운동유형은 대응하는 입체영상의 생성 및/또는 그좌/우측화상의 결정에 사용되는, 입체영상생성장치.
  31. 제 30항에 있어서, 상기 운동유형재결정부는 이전화상의 운동유형이 정지화상이면 현재화상의 운동유형을 변경하지 않으며,
    이전화상과 현재화상의 운동유형이 서로 다르면, 상기 운동유형결정수단에서 현재화상의 운동유형의 최초 결정시에 사용된 임계치들을 이전화상 및 현재화상의 각 운동유형의 조합에 따라 적응적으로 재조정하여 현재화상의 운동유형을 재결정하며,
    이전화상과 현재화상의 운동유형이 서로 동일하면, 비수평운동화상 또는 수평운동화상내의 카메라 및/또는 물체의 운동종류를 재결정하고, 이전화상 및 현재화상의 수평운동속도를 모두 고려하여 수평운동화상에 대응하는 이전화상을 결정케하는, 입체영상생성장치.
KR1019990054714A 1999-06-05 1999-12-03 Mpeg 데이터를 이용한 입체영상생성방법 및 그 장치 KR100334722B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1019990054714A KR100334722B1 (ko) 1999-06-05 1999-12-03 Mpeg 데이터를 이용한 입체영상생성방법 및 그 장치
US09/455,157 US6377625B1 (en) 1999-06-05 1999-12-06 Method and apparatus for generating steroscopic image using MPEG data

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR19990020862 1999-06-05
KR1019990020862 1999-06-05
KR1019990054714A KR100334722B1 (ko) 1999-06-05 1999-12-03 Mpeg 데이터를 이용한 입체영상생성방법 및 그 장치

Publications (2)

Publication Number Publication Date
KR20000017775A KR20000017775A (ko) 2000-04-06
KR100334722B1 true KR100334722B1 (ko) 2002-05-04

Family

ID=26635349

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019990054714A KR100334722B1 (ko) 1999-06-05 1999-12-03 Mpeg 데이터를 이용한 입체영상생성방법 및 그 장치

Country Status (2)

Country Link
US (1) US6377625B1 (ko)
KR (1) KR100334722B1 (ko)

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7362775B1 (en) 1996-07-02 2008-04-22 Wistaria Trading, Inc. Exchange mechanisms for digital information packages with bandwidth securitization, multichannel digital watermarks, and key management
US5613004A (en) 1995-06-07 1997-03-18 The Dice Company Steganographic method and device
US7664263B2 (en) 1998-03-24 2010-02-16 Moskowitz Scott A Method for combining transfer functions with predetermined key creation
US6205249B1 (en) * 1998-04-02 2001-03-20 Scott A. Moskowitz Multiple transform utilization and applications for secure digital watermarking
US7095874B2 (en) 1996-07-02 2006-08-22 Wistaria Trading, Inc. Optimization methods for the insertion, protection, and detection of digital watermarks in digitized data
US5889868A (en) * 1996-07-02 1999-03-30 The Dice Company Optimization methods for the insertion, protection, and detection of digital watermarks in digitized data
US7159116B2 (en) 1999-12-07 2007-01-02 Blue Spike, Inc. Systems, methods and devices for trusted transactions
US7457962B2 (en) 1996-07-02 2008-11-25 Wistaria Trading, Inc Optimization methods for the insertion, protection, and detection of digital watermarks in digitized data
US7177429B2 (en) 2000-12-07 2007-02-13 Blue Spike, Inc. System and methods for permitting open access to data objects and for securing data within the data objects
US7346472B1 (en) 2000-09-07 2008-03-18 Blue Spike, Inc. Method and device for monitoring and analyzing signals
US7730317B2 (en) * 1996-12-20 2010-06-01 Wistaria Trading, Inc. Linear predictive coding implementation of digital watermarks
US6614427B1 (en) 1999-02-01 2003-09-02 Steve Aubrey Process for making stereoscopic images which are congruent with viewer space
US7664264B2 (en) 1999-03-24 2010-02-16 Blue Spike, Inc. Utilizing data reduction in steganographic and cryptographic systems
US7475246B1 (en) 1999-08-04 2009-01-06 Blue Spike, Inc. Secure personal content server
US7254265B2 (en) * 2000-04-01 2007-08-07 Newsight Corporation Methods and systems for 2D/3D image conversion and optimization
DE10016074B4 (de) * 2000-04-01 2004-09-30 Tdv Technologies Corp. Verfahren und Vorrichtung zur Erzeugung von 3D-Bildern
US20040243540A1 (en) * 2000-09-07 2004-12-02 Moskowitz Scott A. Method and device for monitoring and analyzing signals
US7127615B2 (en) 2000-09-20 2006-10-24 Blue Spike, Inc. Security based on subliminal and supraliminal channels for data objects
DE10128530A1 (de) * 2001-06-13 2002-12-19 Basf Ag Kühlmittel für Kühlsysteme in Brennstoffzellenantrieben enthaltend Azolderivate
CA2472272A1 (en) * 2001-11-24 2003-06-05 Tdv Technologies Corp. Generation of a stereo image sequence from a 2d image sequence
EP2339854A3 (en) * 2001-11-30 2013-11-13 NTT DoCoMo, Inc. Moving picture encoding device, moving picture decoding device, moving picture encoding method, moving picture decoding method, program, and computer readable recording medium storing program
US7319720B2 (en) * 2002-01-28 2008-01-15 Microsoft Corporation Stereoscopic video
US7287275B2 (en) 2002-04-17 2007-10-23 Moskowitz Scott A Methods, systems and devices for packet watermarking and efficient provisioning of bandwidth
KR100481732B1 (ko) * 2002-04-20 2005-04-11 전자부품연구원 다 시점 동영상 부호화 장치
US7529400B2 (en) 2002-04-25 2009-05-05 Sharp Kabushiki Kaisha Image encoder, image decoder, record medium, and image recorder
WO2004008768A1 (en) * 2002-07-16 2004-01-22 Electronics And Telecommunications Research Institute Apparatus and method for adapting 2d and 3d stereoscopic video signal
GB0329312D0 (en) * 2003-12-18 2004-01-21 Univ Durham Mapping perceived depth to regions of interest in stereoscopic images
WO2005083637A1 (es) * 2004-02-27 2005-09-09 Td Vision Corporation, S.A. De C.V. Método y sistema de decodificación digital de imágenes de video 3d estereoscópicas
KR101187550B1 (ko) * 2004-02-27 2012-10-04 티디비전 코포레이션 에스.에이. 데 씨.브이. 입체적 3d-비디오 이미지 디지털 코딩 시스템 및 방법
WO2006043016A1 (en) * 2004-10-21 2006-04-27 David Brian Woods Stereoscopic display device and method of creating pseudostereoscopic moving images
JP4687279B2 (ja) * 2005-06-29 2011-05-25 ソニー株式会社 画像再生装置、画像再生方法、および画像再生用プログラム
JP4665167B2 (ja) * 2005-06-29 2011-04-06 ソニー株式会社 ステレオ画像処理装置、ステレオ画像処理方法およびステレオ画像処理用プログラム
JP4665166B2 (ja) * 2005-06-29 2011-04-06 ソニー株式会社 ステレオ画像処理装置、ステレオ画像処理方法およびステレオ画像処理用プログラム
US8330801B2 (en) * 2006-12-22 2012-12-11 Qualcomm Incorporated Complexity-adaptive 2D-to-3D video sequence conversion
KR20100002032A (ko) * 2008-06-24 2010-01-06 삼성전자주식회사 영상 생성 방법, 영상 처리 방법, 및 그 장치
US8369625B2 (en) * 2008-06-30 2013-02-05 Korea Institute Of Oriental Medicine Method for grouping 3D models to classify constitution
US20110115790A1 (en) * 2008-08-26 2011-05-19 Enhanced Chip Technology Inc Apparatus and method for converting 2d image signals into 3d image signals
US20100135640A1 (en) * 2008-12-03 2010-06-03 Dell Products L.P. System and Method for Storing and Displaying 3-D Video Content
US9854254B2 (en) * 2009-08-04 2017-12-26 Avocent Corporation Method and system for remote viewing of static and video images
JP2011109398A (ja) * 2009-11-17 2011-06-02 Sony Corp 画像送信方法、画像受信方法、画像送信装置、画像受信装置及び画像伝送システム
CN102243856B (zh) * 2010-05-13 2013-12-04 华为技术有限公司 动态切换屏幕数据处理方式的方法及装置
US9483836B2 (en) * 2011-02-28 2016-11-01 Sony Corporation Method and apparatus for real-time conversion of 2-dimensional content to 3-dimensional content
TR201104918A2 (tr) 2011-05-20 2012-12-21 Vestel Elektroni̇k Sanayi̇ Ve Ti̇caret A.Ş. Derinlik haritası ve 3d video oluşturmak için yöntem ve aygıt.
WO2013145327A1 (ja) * 2012-03-30 2013-10-03 富士通株式会社 生成装置、生成プログラムおよび生成方法
JPWO2016208246A1 (ja) * 2015-06-24 2018-04-26 ソニー・オリンパスメディカルソリューションズ株式会社 医療用立体観察装置、医療用立体観察方法、及びプログラム
KR102368229B1 (ko) * 2018-02-06 2022-03-03 한화테크윈 주식회사 영상처리장치 및 방법
CN112285739B (zh) * 2020-11-19 2021-08-13 福勤智能科技(昆山)有限公司 一种数据处理方法、装置、设备及存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6384859B1 (en) * 1995-03-29 2002-05-07 Sanyo Electric Co., Ltd. Methods for creating an image for a three-dimensional display, for calculating depth information and for image processing using the depth information
US6108005A (en) * 1996-08-30 2000-08-22 Space Corporation Method for producing a synthesized stereoscopic image
US6057884A (en) * 1997-06-05 2000-05-02 General Instrument Corporation Temporal and spatial scaleable coding for video object planes
US6043838A (en) * 1997-11-07 2000-03-28 General Instrument Corporation View offset estimation for stereoscopic video coding

Also Published As

Publication number Publication date
KR20000017775A (ko) 2000-04-06
US6377625B1 (en) 2002-04-23

Similar Documents

Publication Publication Date Title
KR100334722B1 (ko) Mpeg 데이터를 이용한 입체영상생성방법 및 그 장치
KR100716992B1 (ko) 스테레오 영상 부호화 및 복호화 방법과 그 장치
US8644386B2 (en) Method of estimating disparity vector, and method and apparatus for encoding and decoding multi-view moving picture using the disparity vector estimation method
JP5970609B2 (ja) 3dビデオ符号化における統一された視差ベクトル導出の方法と装置
EP2163103B1 (en) Method and system for encoding a 3d video signal, enclosed 3d video signal, method and system for decoder for a 3d video signal
JP5059766B2 (ja) 視差ベクトルの予測方法、その方法を利用して多視点動画を符号化及び復号化する方法及び装置
JP6042536B2 (ja) 3dビデオ符号化におけるビュー間候補導出の方法と装置
US20070269136A1 (en) Method and device for generating 3d images
JP2007180981A (ja) 画像符号化装置、画像符号化方法、及び画像符号化プログラム
US20070104276A1 (en) Method and apparatus for encoding multiview video
AU2013284038B2 (en) Method and apparatus of disparity vector derivation in 3D video coding
KR100738867B1 (ko) 다시점 동영상 부호화/복호화 시스템의 부호화 방법 및시점간 보정 변이 추정 방법
US20150381986A1 (en) Method and Apparatus for Bi-Prediction of Illumination Compensation
JPH0870475A (ja) 立体動画像の符号化・復号化方法及び装置
KR20150046154A (ko) 화상 부호화 방법, 화상 복호 방법, 화상 부호화 장치, 화상 복호 장치, 화상 부호화 프로그램, 화상 복호 프로그램 및 기록매체
KR20070033863A (ko) 시차 벡터 예측 방법, 그 방법을 이용하여 다시점 동영상을부호화 및 복호화하는 방법 및 장치
JP2015525997A5 (ko)
JP4825983B2 (ja) 画像情報圧縮方法及び自由視点テレビシステム
JP2007180982A (ja) 画像復号装置、画像復号方法、及び画像復号プログラム
Aydinoglu et al. Compression of multi-view images
Kim et al. Stereoscopic conversion of monoscopic video by the transformation of vertical-to-horizontal disparity
JPH07327242A (ja) 立体動画像圧縮符号化装置及び立体動画像復号再生装置
Rusanovskyy et al. Depth-based coding of MVD data for 3D video extension of H. 264/AVC
KR19990057669A (ko) 가상 스테레오 영상을 이용한 2차원 연속 영상의 3차원 영상 변환 장치 및 방법
KR100263935B1 (ko) 운동 시차의 수평 시차로의 변환을 이용한 2차원 연속 영상의 3차원 영상 변환장치 및 방법

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
G15R Request for early publication
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120417

Year of fee payment: 11

LAPS Lapse due to unpaid annual fee