KR100932977B1 - 입체 영상 표시 장치 - Google Patents

입체 영상 표시 장치 Download PDF

Info

Publication number
KR100932977B1
KR100932977B1 KR1020050060211A KR20050060211A KR100932977B1 KR 100932977 B1 KR100932977 B1 KR 100932977B1 KR 1020050060211 A KR1020050060211 A KR 1020050060211A KR 20050060211 A KR20050060211 A KR 20050060211A KR 100932977 B1 KR100932977 B1 KR 100932977B1
Authority
KR
South Korea
Prior art keywords
color information
coordinate
value
image
line
Prior art date
Application number
KR1020050060211A
Other languages
English (en)
Other versions
KR20070005091A (ko
Inventor
송명섭
이장두
장형욱
이우종
김현숙
김학근
이덕명
최한준
Original Assignee
삼성모바일디스플레이주식회사
주식회사 넥서스칩스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성모바일디스플레이주식회사, 주식회사 넥서스칩스 filed Critical 삼성모바일디스플레이주식회사
Priority to KR1020050060211A priority Critical patent/KR100932977B1/ko
Priority to JP2006171871A priority patent/JP4933846B2/ja
Priority to US11/480,730 priority patent/US8154543B2/en
Priority to EP06116598.1A priority patent/EP1742490B1/en
Priority to CNB2006101011579A priority patent/CN100570432C/zh
Publication of KR20070005091A publication Critical patent/KR20070005091A/ko
Application granted granted Critical
Publication of KR100932977B1 publication Critical patent/KR100932977B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding

Abstract

입체 영상 표시 장치는 복수의 좌안용 화소 및 복수의 우안용 화소를 포함하는 표시부, 상기 복수의 좌안용 화소에 대응하는 데이터를 저장하는 좌안 영상 영역 및 상기 복수의 우안용 화소에 대응하는 데이터를 저장하는 우안 영상 영역을 포함하는 메모리부, 입력되는 3D 영상 데이터를 상기 복수 좌안용 화소에 대응하는 좌안용 3D 영상 데이터 또는 상기 복수의 우안용 화소에 대응하는 우안용 3D 영상 데이터로 변환하는 지오매트릭 엔진부, 및 상기 좌안용 3D 영상 데이터의 좌표 정보 및 색상 정보 또는 상기 우안용 3D 영상 데이터의 좌표 정보 및 색상 정보를 이용하여, 상기 좌안 영상 영역 또는 우안 영상 영역에 저장할 좌표 값 및 색상 정보 값만을 계산하며, 상기 좌표 값을 기초로 상기 색상 정보 값을 상기 메모리부에 저장하는 렌더링 엔진부를 포함한다.
입체 영상, 스패닝, 랜더링 엔진

Description

입체 영상 표시 장치{STEREOSCOPIC IMAGE DISPLAY DEVICE}
도 1은 디스패러티에 따라 관찰자가 느끼는 입체 영상을 보여주는 도면이다.
도 2는 본 발명의 실시예에 따른 입체 영상 표시 장치의 구성을 나타내는 블록도이다.
도 3은 도 2의 입체 영상 표시 장치에 의해 입체 영상이 표시되는 개념을 보여주는 도면이다.
도 4는 도 2의 데이터 변환부의 내부 구성을 나타내는 블록도이다.
도 5는 본 발명의 실시예에 따른 랜더링 엔진부의 내부 구성을 나타내는 블록도이다.
도 6은 본 발명의 실시예에 따른 랜더링 엔진부가 적용하는 스패닝 방식을 개념적으로 나타내는 도면이다.
도 7은 본 발명의 실시예와 같은 스패닝 방식을 적용하지 않고 프레임 메모리부에 쓰이지(저장되지) 않는 3D 영상 데이터까지 좌표 및 색상 정보를 계산하는 스패닝 방식을 개념적으로 나타내는 도면이다.
본 발명은 입체 영상 표시 장치에 관한 것이다.
입체 영상 표시 장치는 사용자의 좌안과 우안에 서로 다른 영상을 제공하여 편광 안경과 같은 기타 장비 없이, 사용자에게 거리감과 입체감을 갖는 입체 영상을 제공한다.
입체 영상 표시 장치는 그 표시부 전면에 패럴랙스 배리어, 렌티큘러 렌즈(lenticular lens) 또는 마이크로렌즈 어레이(microlens array) 등을 구비하여 표시부에서 구현되는 좌안용 영상과 우안용 영상을 각각 사용자의 좌안 방향과 우안 방향으로 공간 분할하는 방식을 채택하고 있다.
입체 영상 표시 장치 용 영상 데이터를 구현하기 위해, 3D 데이터를 입체 영상 데이터로 전환할 필요가 있다. 이러한 3D 데이터의 입체 영상 데이터로의 전환은 입체 영상 표시 장치 외부에서 수행되는 것이 일반적이다.
한편, 일반 3D 영상의 경우에 비해 입체 영상의 경우는 같은 컨텐츠에 대해 영상 처리를 하는데 있어 보통 50% 가까운 속도 저하가 발생한다. 이는 일반 3D 영상은 하나의 눈에 보이는 영상만을 생성하여 표시하는데 반해, 입체 영상은 좌안과 우안에 의한 영상을 각각 생성하여 이를 합한 스테레오 입체 영상을 표시함으로 인해 2배 가까운 시간이 필요하게 된다.
본 발명이 이루고자 하는 기술적 과제는 상기한 종래 기술의 문제점을 해결하기 위한 것으로 3D 데이터를 입체 영상 데이터로 전환하는 기능을 포함하는 입체 영상 표시 장치를 제공하기 위한 것이다.
본 발명이 이루고자 하는 또 다른 기술적 과제는 영상 처리 속도를 향상시키는 입체 영상 표시 장치를 제공하기 위한 것이다.
상기한 목적을 달성하기 위한 본 발명의 특징에 따르면 입체 영상 표시 장치가 제공된다. 이 입체 영상 표시 장치는, 입체 영상 표시 장치는 복수의 좌안용 화소 및 복수의 우안용 화소를 포함하는 표시부; 상기 복수의 좌안용 화소에 대응하는 데이터를 저장하는 좌안 영상 영역 및 상기 복수의 우안용 화소에 대응하는 데이터를 저장하는 우안 영상 영역을 포함하는 메모리부; 입력되는 3D 영상 데이터를 상기 복수 좌안용 화소에 대응하는 좌안용 3D 영상 데이터 또는 상기 복수의 우완용 화소에 대응하는 우안용 3D 영상 데이터로 변환하는 지오매트릭 엔진부; 및 상기 좌안용 3D 영상 데이터의 좌표 정보 및 색상 정보 또는 상기 우안용 3D 영상 데이터의 좌표 정보 및 색상 정보를 이용하여, 상기 좌안 영상 영역 또는 우완 영상 영역에 저장할 좌표 값 및 색상 정보 값만을 계산하며, 상기 좌표 값을 기초로 상기 색상 정보 값을 상기 메모리부에 저장하는 렌더링 엔진부를 포함한다. 여기서, 상기 좌표 정보는 소정의 영역 중 소정의 제1 라인의 시작 X좌표 및 끝 X좌표를 포함하고, 상기 렌더링 엔진부는 상기 제1 라인의 시작 X 좌표에 제1 증가치 씩 증가시켜, 상기 제1 라인에 대한 X좌표 값을 계산하며, 상기 제1 증가치에 대응하여 상기 제1 라인에 대한 색상 정보 값을 계산한다. 또한, 상기 제1 가중치는 2이다.
본 발명의 다른 특징에 따르면 입력되는 3D 영상 데이터를 스테레오스코픽 영상 데이터로 변환하는 3D 영상-스테레오스코픽 영상 변환기가 제공된다. 이 3D 영상-스테레오스코픽 영상 변환기는, 상기 3D 영상 데이터를 좌안 또는 우안 각각에 대한 모델뷰 매트릭스 및 프로젝션 매트릭스와 곱셈 연산을 수행하여 좌안용 3D 영상 데이터 또는 우안용 3D 영상 데이터를 생성하는 지오매트릭 엔진부; 상기 좌안용 3D 영상 데이터 또는 상기 우안용 3D 영상 데이터 중 소정의 영역에 대응하는 제1 라인에 대하여, 상기 제1 라인의 시작 X좌표에 제1 증가치 씩 증가시켜 상기 제1 라인에 대응하는 X 좌표 값을 생성하는 X 좌표 증가부; 상기 제1 가중치에 대응하여 제1 색상 정보 증가치를 계산하며, 상기 제1 라인의 색상 정보 시작 값에 상기 제1 색상 정보 증가치 씩 증가시키며 상기 제1 라인에 대응하는 색상 정보 값을 계산하는 색상 정보 증가부; 및 상기 X 좌표 증가부에서 생성된 상기 X 좌표 값에 기초하여 상기 색상 증가부에서 생성되는 상기 색상 정보 값을 메모리에 저장하도록 제어하는 메모리 제어부를 포함한다. 여기서, 상기 제1 증가치는 2이다. 그리고, 상기 제1 색상 정보 증가치는, 상기 제1 라인의 시작 X좌표와 상기 제1 라인의 끝 X 좌표간의 거리, 상기 제1 라인의 색상 정보 시작 값과 상기 제1 라인의 색상 정보 끝 값을 이용하여 결정된 가중치에 2배한 값이다.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다.
도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였다. 명세서 전체를 통하여 유사한 부분에 대해서는 동일한 도면 부호를 붙였 다.
먼저, 본 발명의 실시예에 따른 입체 영상 표시 장치를 설명하기 전에, 입체 영상 표시의 원리에 대해서 개략적으로 설명한다.
일반적으로 사람의 좌, 우안은 하나의 입체 대상물을 관찰할 때 서로 다른 위치에서 보게 되므로, 관찰자는 좌, 우완을 통해 서로 다른 영사 정보를 인식하게 된다. 관찰자는 이렇게 서로 다른 영상 정보를 조합하여 입체 대상물에 대한 깊이 정보를 획득하며, 입체감을 느끼게 된다.
입체 영상 표시 장치는 관찰자가 실제로 입체 대상물을 관찰할 때 관찰자의 좌, 우안이 보게 되는 영상을 관찰자에게 제공함으로써 관찰자로 하여금 입체 영상을 느끼게 한다.
이때, 관찰자의 좌, 우안이 보게 되는 영상의 차이를 디스패러티(disparity)라 한다. 이때, 디스패러티가 양(+)의 값을 갖는 경우 관찰자는 입체 대상물의 소정의 기준면보다 관찰자 방향으로 가까운 위치하는 것으로 느끼게 되며, 디스패러티가 음(-)의 값을 갖는 경우 관찰자는 입체 대상물이 상기 기준면보다 관찰자 반대 방향으로 멀리 위치하는 것으로 느끼게 된다.
도 1은 디스패러티에 따라 관찰자가 느끼는 입체 영상을 보여준다. 도 1에나타낸 바와 같이, 양(+)의 디스패러티를 갖는 원통형 영상은 기준면으로부터 관찰자에게 가깝게 위치하는 것으로 느껴지며, 음(-)의 디스패러티를 갖는 사각형 영상은 기준면으로부터 관찰자에게 멀게 위치하는 것으로 느껴지게 된다. 반면에 영(0)의 디스패러티를 갖는 하트 영상은 기준면에 위치하는 것으로 느껴지게 된다. 아래에서 본 발명의 명세서에서 사용하는 용어에서, '입체 영상'은 표시되는 영상이 소정의 표시 장치의 일면을 기준면으로 하였을 경우, 표시되는 영상이 기준면으로부터 관찰자 방향으로 다가서서 위치하는 것으로 느껴지거나 기준면에서 관찰자 반대 방향으로 멀어져서 위치하는 것으로 느껴지는 영상을 의미한다. 반면에, '평면 영상'은 표시되는 영상이 기준면 상에 위치하는 것으로 느껴지는 영상을 의미한다. 그리고 '입체 영상 표시 장치'는 상기에서 정의되는 입체 영상을 표시할 수 있는 표시 장치를 의미한다.
본 발명의 실시예에서는 패럴렉스 배리어를 이용하여 좌안과 우안 영상을 분리하여 입체 효과를 구현하는 입체 영상 표시 장치에 대해서 설명한다. 그러나, 본 발명은 패럴렉스 배리어 방식의 입체 영상 표시 장치에 한정되는 것은 아니며, 렌티 큘러 랜즈 방식의 입체 영상 표시 장치 등에도 적용될 수 있다.
이하, 본 발명의 실시예에서는 도 2에서 나타낸 바와 같이 액정 표시 장치로 구현된 입체 영상 표시 장치를 예를 들어 구체적으로 설명한다. 그러나, 본 발명의 입체 영상 표시 장치는 액정 표시 장치 이외의 유기 발광 표시 장치, 플라즈마 표시 장치 또는 전계 표시 장치 등에 적용 될 수 있다.
도 2는 본 발명의 실시예에 따른 입체 영상 표시 장치의 구성을 나타내는 블록도이다.
도 2에 나타낸 바와 같이 본 발명의 실시예에 따른 입체 영상 표시 장치는 표시부(100), 배리어(100'), 주사 구동부(200), 데이터 구동부(300), 광원(400), 광원 제어부(500), 타이밍 제어부(600) 및 데이터 변환부(700)를 포함한다. 광원 (400)은 면 광원으로 형성되어 표시부(100)의 후면에 형성되나, 도 2에서는 편의상 광원(400)이 표시부(100)의 하단에 형성되는 것으로 나타내었다.
표시부(100)는 선택 신호를 전달하는 복수의 주사선(도시하지 않았음), 복수의 주사선과 절여되어 교차하도록 형성되고 데이터 신호를 전달하는 복수의 데이터선(도시하지 않았음) 및 주사선과 데이터선의 교차점에 형성된 복수의 부화소(도시하지 않았음)를 포함한다. 본 발명의 실시예에서는 적색(R) 표시를 위한 적색 부화소, 녹색(G) 표시를 위한 녹색 부화소 및 청색(B) 표시를 위한 청색 부화소가 함께 하나의 화소를 형성하는 것으로 가정한다.
또한, 본 발명의 실시예에서는 표시부(100)의 복수의 화소들은 좌안용 영상에 대응하는 화소(이하, '좌안용 화소'라 함) 및 우완용 영상에 대응하는 화소(이하, '우완용 화소'라 함)를 포함한다. 여기서, 좌안용 화소 및 우안용 화소는 서로 반복되어 배열되도록 형성된다. 구체적으로 좌안용 화소 및 우안용 화소는 서로 평행하게 반복되도록 배열되어 스트라이프 형태 또는 지그 재그 형태를 형성할 수 있다. 이러한 좌안용 화소 및 우안용 화소의 배열은 배리어(100')에 따라 적합하게 변경될 수 있다.
배리어(100')는 표시부(100)의 어느 일면에 배치되며, 표시부(100)의 좌안용 화소 및 우안용 화소의 배열 방법에 대응하도록 형성된 불투명 영역(도시하지 않았음)들과 투명 영역(도시하지 않았음)들을 포함한다. 배리어(100')는 불투명 영역들과 투명 영역들을 이용하여 표시부(100)의 좌안용 화소 및 우안용 화소에서 각각 투사되는 좌안 영상과 우안 영상을 각각 관찰자의 좌안 방향과 우안 방향으로 분리 하여 제공한다. 배리어(100')의 불투명 영역들과 투명 영역들은 표시부(100)의 좌안용 화소 및 우안용 하소의 배열 방법에 따라 스트라이프 형태 또는 지그재그 형태로 형성될 수 있다.
도 2의 표시부(100) 및 배리어(100')를 통해 관찰자가 입체 영상을 느끼는 방법을 도 3을 참조하여 개략적으로 설명한다. 도 3은 도 2의 표시부(100) 및 배리어(100')의 I-I' 방향으로 절단한 단면을 통해 관찰자가 좌안 화소 및 우안 화소를 통해 입체 영상을 관찰하는 모습을 보여준다.
도 3에 나타낸 바와 같이, 표시부(100)는 반복하여 배열된 복수의 좌안용 화소(150) 및 복수의 우안용 화소(160)를 포함하며, 배리어(100')는 복수의 좌안용 화소(150) 및 복수의 우안용 화소(160)의 배열 방향과 동일한 방향으로 반복하여 평행하게 배열된 불투명 영역(150')과 투명 영역(160')을 포함한다. 표시부(100)의 좌안용 화소(150)는 투명 영역(160')을 통해 좌안 영상을 좌안(180)에 투사하며, 표시부(100)의 우안용 화소(160)는 배리어(100')의 투명 영역(160')을 통해 우안 영상을 우안(170)에 투사한다. 배리어(100')의 불투명 영역(150')은 표시부(100)의 좌안용 화소(150) 및 우안용 하소(160)가 투명 영역(160')을 통해 각각 좌안 및 우안에 영상을 투사할 수 있도록 광 투사 경로를 형성한다.
좌안용 화소(150)로부터 투사되는 좌안용 영상은 우안용 영상에 대하여 소정의 디스패러티를 갖는 영상으로 형성되며, 우안용 화소(160)로부터 투사되는 우안용 영상은 좌안용 영상에 대하여 소정의 디스패러티를 갖는 영상으로 형성된다. 따라서, 관찰자는 좌안용 화소(150)로부터 좌안용 영상 및 우안용 화소(160)로부터 투사되는 우안용 영상을 각각 관찰자의 좌안 및 우안에서 인식할 때, 실체 입체 대상물을 좌안 우안을 통해 보는 것과 같은 깊이 정보를 얻게 되어 입체감을 느끼게 된다.
다시 도 2를 참조하면, 주사 구동부(200)는 타이밍 제어부(600)로부터 출력되는 제어 신호(Sg)에 응답하여 선택 신호를 순차적으로 생성하여 표시부(100)의 주사선(S1~Sn)에 각각 인가한다.
데이터 구동부(300)는 인가되는 입체 영상 데이터를 표시부(100)의 데이터선(D1~Dm)에 인가하기 위한 아날로그 데이터 전압으로 변환하고, 타이밍 제어부(600)로부터 입력되는 제어 신호(Sd)에 응답하여 변환된 아날로그 데이터 전압을 데이터선(D1~Dm)에 인가한다.
광원(400)은 적색(R), 녹색(G), 청색(B)의 발광 다이오드(도시하지 않았음)를 포함하며, 각각 적색(R), 녹색(G), 청색(B)에 해당하는 광을 표시부(100)에 출력한다. 광원(500)의 적색(R), 녹색(G), 청색(B)의 발광 다이오드는 각각 표시부(100)의 R 부화소, G 부화소 및 B 부화소로 광을 출력한다.
광원 제어부(500)는 타이밍 제어부(600)로부터 출력되는 제어 신호(Sb)에 응답하여 광원(500)의 발광 다이오드의 점등 시기를 제어한다. 이때, 데이터 구동부(300)로부터 데이터 신호를 데이터선에 공급하는 기간과 광원 제어부(500)에 의해 적색(R), 녹색(G), 청색(B)의 발광 다이오드를 점등하는 기간은 타이밍 제어부(600)에 의해 제공되는 제어 신호에 의해 동기 될 수 있다.
타이밍 제어부(600)는 외부로부터 입력되는 수평 동기 신호(Hsync) 및 수직 동기 신호(Vsync), 데이터 변환부(700)로부터 입력되는 입체 영상 신호 데이터에 대응하여 , 입체 영상 신호 데이터 및 생성된 제어 신호(Sg, Sd, Sb)를 각각 주사 구동부(200), 데이터 구동부(300) 및 광원 제어부(500)에 공급한다.
데이터 변환부(700)는 입력되는 데이터(DATA)를 입체 영상 데이터로 변환하여 타이밍 제어부(600)에 전달한다. 본 발명의 실시예에서는 데이터 변환부(700)에 입력되는 데이터(DATA)는 3D 영상 콘텐츠를 포함하는 데이터(이하, '3D 영상 데이터'라 함)이며, 입체 영상 데이터는 표시부(100)의 좌안용 하소 및 우안용 화소에 각각 대응하는 좌안 영상 데이터 및 우안 영상 데이터를 포함한다. 또한, 본 실시예에서는 3D 영상 데이터는 좌표 정보(즉, X좌표 및 Y좌표) 및 해당 좌표에 대응하는 색상 정보를 포함한다. 여기서, 색상 정보는 색 정보 또는 텍스처 좌표 값 등을 포함한다. 한편, 이와 같이 평면 영상용 3D 영상 데이터를 입체 영상 데이터로 변환하는 데이터 변환부(700)는 그래픽 가속칩 등의 형태로 구현될 수 있다.
이하에서는 데이터 변환부(700)를 도 4를 참조하여 더욱 상세하게 설명한다. 도 4는 도 2의 데이터 변환부(700)의 내부 구성을 나타내는 블록도이다.
도 4에 나타낸 바와 같이, 본 발명의 실시예에 따른 데이터 변환부(700)는 지오매트릭 엔진부(710), 랜더링 엔진부(720) 및 프레임 메모리부(730)를 포함한다.
지오매트릭 엔진부(Geometric Engine)(710)는 입체 영상 활성화 신호에 응답하여, 3D 영상 데이터를 좌안 또는 우안의 위치에 대응하는 변수와 연산하여 각각 좌안용 3D 영상 데이터 또는 우안용 3D 영상데이터로 변환하고, 각 좌안용 3D 영상 데이터 또는 우안용 3D 영상데이터에 대응하는 좌표 정보 및 색상 정보를 랜더링 엔진부(Rendering Engine)(720)로 전달한다. 여기서, 랜더링 엔진부(720)로 전달되는 좌표 정보에는 소정의 영역(예를 들면, 하나의 폴리곤(polygon)을 의미함)의 각 라인(도 6 및 도 7 참조)에 대응하는 시작 X 좌표, 끝 X 좌표, Y 좌표(각 라인에 대응하여 Y 좌표는 일정함)가 포함되어 있으며, 랜더링 엔진부(720)로부터 전달되는 색상 정보에도 소정의 영역(예를 들면, 하나의 폴리곤(polygon)을 의미함)의 각 라인(도 6 및 도 7 참조)에 대응하는 색상 정보 시작 값, 색상 정보 끝 값이 포함되어 있다. 한편, 좌안 또는 우안의 위치에 대응하는 변수는 좌안 또는 우안 각각에 대한 모델뷰 매트릭스 및 프로젝션 매트릭스 등을 포함한다. 모델뷰 매트릭스는 3D 영상을 관찰하는 지점(좌안 또는 우안)에 대응하는 파라미터들이 배열되는 있는 매트릭스를 의미하며, 프로젝션 매트릭스는 3D 영상에 대한 원근감에 대응하는 파라미터들이 배열되어 있는 매트릭스를 의미한다. 구체적으로 지오매트릭 엔진부(710)는 입력되는 3D 영상 데이터를 좌안 또는 우안 각각에 대한 모델뷰 매트릭스 및 프로젝션 매트릭스 등과 매트릭스 곱셈 연산을 수행하여 각각 좌안용 3D 영상 데이터 또는 우안용 3D 영상 데이터를 생성한다.
한편, 입체 영상 활성화 신호가 인가되지 않는 경우, 지오매트릭 엔진부(710)는 입력되는 3D 영상 데이터를 좌안 또는 우안으로 구별하지 않고 하나의 위치(좌안 또는 우안과 구별되는 '일안')에 대응하는 변수와 연산하여 일안용 3D 영상으로 변환하고, 일안용 3D 영상 데이터에 대응하는 좌표 정보 및 색상 정보를 랜더링 엔진부(720)로 전달한다. 이 경우 일안용 3D 영상 데이이터는 렌더링 엔진 부(720)를 거쳐 프레임 메모리부(730)의 좌안 영상 영역 및 우안 영상 영역에 중복되게 기록되어 평면 영상 데이터로 생성될 수 있다.
랜더링 엔진부(720)는 지오매트릭 엔진부(710)로부터 좌안용 3D 영상 데이터 또는 우안용 3D 영상 데이터에 포함된 좌표 정보(즉, 시작 X 좌표, 끝 X 좌표, Y 좌표) 및 색상 정보(즉, 색상 정보 끝 값, 색상 정보 시작 값)를 입력받아, 스패닝(spanning)방식을 적용하여 좌표 정보를 기초로 하여 색상 정보를 프레임 메모리부(730)의 좌안 영상 영역 또는 우안 영상 영역에 저장한다. 한편, 랜더링 엔진부(720)는 지오매트릭 엔진부(710)로부터 좌안용 3D 데이터가 입력되는지 우안용 3D 데이터가 입력되는지 여부를 알려주는 좌/우안 선택신호를 입력받는다. 일반적으로 스패닝(spanning) 방식이라 함은 소정의 Y 좌표에 대한 X 좌표의 시작과 끝점을 계산한 뒤 X 좌표를 하나씩 증가시키면서 그에 따른 색상 정보(즉, 색 정보 또는 텍스처 좌표 값)도 증가를 시키면서 프레임 메모리에 색상 정보를 저장하는 것을 말한다. 아래에서 설명하는 바와 같이 본 발명의 실시예에 따른 랜더링 엔진부(720)는 스패닝(spanning)을 적용함에 있어 프레임 메모리에 쓰여지는(저장되는) 좌표에 대한 값만을 계산하여 프레임 메모리에 쓰는(저장하는) 방식을 사용한다.
프레임 메모리부(730)는 좌안 영상 영역 및 우안 영상 영역으로 나뉘어져 랜더링 엔진부(720)에 의해 각 영역에 색상 정보가 저장되며, 프레임 메모리부(730)에 저장된 입체 영상 신호 데이터가 타이밍 제어부(600)로 전송된다.
이하에서는 도 5 및 도 6을 참조하여 본 발명의 실시예에 따른 랜더링 엔진부(720)에 대해서 상세하게 설명한다. 도 5는 본 발명의 실시예에 따른 랜더링 엔 진부(720)의 내부 구성을 나타내는 블록도이며, 도 6은 본 발명의 실시예에 따른 랜더링 엔진부(720)가 적용하는 스패닝 방식을 개념적으로 나타내는 도면이다.
도 5에 나타낸 바와 같이 본 발명의 실시예에 따른 랜더링 엔진부(720)는 시작 X좌표 계산부(721), X좌표 증가부(722), 시작 값 계산부(723), 색상 정보 증가부(724) 및 메모리 제어부(725)를 포함한다.
시작 X좌표 계산부(721)는 좌/우안 선택 신호 및 소정의 라인(즉, 일정한 Y 좌표를 가짐)에 대한 시작 X좌표(이하, '시작 X 좌표'라 함)를 입력받아, 좌안 선택 신호에 대응하는 시작 X좌표 또는 우안 선택 신호에 대응하는 시작 X좌표를 생성하여 X 좌표 증가부(722)에 전송한다.
X좌표 증가부(722)는 시작 X좌표 계산부(721)로부터 전송되는 시작 X좌표를 기준으로 2씩 증가시키면서 X좌표를 출력한다. 즉, 본 발명의 실시예에서는 프레임 메모리부(730)에 쓰여지는(저장되는) 좌표에 대한 값만을 프레임 메모리부(730)에 저장하기 위해 X좌표를 2씩 증가시킨다.
시작 값 계산부(723)는 좌/우안 선택 신호 및 소정의 라인(즉, 일정한 Y좌표)에 대한 색상 정보 시작 값(즉, 색 정보 시작 값 또는 텍스처 좌표 시작 값)(이하, '색상 정보 시작 값'이라 함)을 입력받아, 좌안 선택 신호에 대응하는 색상 정보 시작 값 또는 우안 선택 신호에 대응하는 색상 정보 시작 값을 생성하여 색상 정보 증가부(724)에 전송한다.
색상 정보 증가부(724)는 시작 X좌표, 끝 X좌표(소정의 한 라인에 대한 끝 X 좌표를 말함, 이하 동일함), 색상 정보 시작 값 및 소정의 한 라인에 대한 색상 정 보 끝 값(즉, 색 정보 시작 값 또는 텍스처 좌표 끝 값)(이하, '색상 정보 끝 값'이라 함)을 입력받아 색상 정보 증가치를 계산하며, 이 색상 정보 증가치를 색상 정보 시작 값에 더하여 색상 정보를 생성한다. 여기서, 입력받은 시작 X좌표 및 끝 X좌표를 이용하여 시작 X좌표와 끝 X좌표간의 거리를 계산하고, 입력받은 색상 정보 시작 값 및 색상 정보 끝 값을 이용하여 색상 정보 시작 값과 색상 정보 끝 값간의 값 차이를 계산하며, 이 두 계산 값과 X 좌표 증가부(722)에서 X 좌표가 2씩 증가하는 것을 고려하여 최종적으로 색상 정보 증가치(즉, 색 정보 증가치, 텍스터 좌표 증가치)를 계산한다. 즉, X 좌표 증가부(722)에서는 X 좌표가 2씩 증가하므로, 색상 정보 증가부(724)는 시작 X 좌표와 끝 X 좌표간의 거리 및 색상 정보 시작 값과 색상 정보 끝 값간의 값 차이를 이용하여 계산된 증가치에 2배하여, 최종적으로 색상 정보 증가치를 계산한다. 그리고, 색상 정보 증가부(724)는 색상 정보 시작 값에 상기 계산된 색장 정보 증가치를 더하여 색상 정보를 생성하여 출력한다. 여기서, 시작 X 좌표와 끝 X 좌표간의 거리 및 색상 정보 시작 값과 색상 정보 끝 값간의 값 차이를 이용하여 증가치를 계산하는 방법은 당업자라면 상기 설명을 바탕으로 용이하게 알 수 있으므로 이하 구체적 설명은 생략한다.
다음으로, 메모리 제어부(725)는 소정의 Y 좌표, X 좌표 증가부(722)로부터 출력되는 X 좌표 및 색상 정보 증가부(724)로부터 출력되는 색상 정보를 입력받으며, 입력받은 Y 좌표, X 좌표를 기초로 하여 색상 정보를 프레임 메모리부(730)에 저장되도록 제어한다. 이때, 입력받은 Y 좌표, X 좌표 및 색상 정보는 프레임 메모리부(730)에 쓰일(저장될) 값들이므로, 메모리 제어부(725)는 쓰기 활성화 신호 (W)를 연속적으로 생성하여 프레임 메모리부(730)에 고속으로 색상 정보가 저장될 수 있다.
한편, 도 6을 참조하여 본 발명의 실시예에 따른 렌더링 엔진부(720)가 적용하는 스패닝(spanning) 방식에 대해서 알아본다. 도 6에서 비금친 부분은 소정의 영역(예를 들면, 하나의 폴리곤(polygon)에 해당함)에서의 한 라인에 대한 좌안 3D 영상 데이터 부분이라고 가정하며, 먼저 좌안 3D 영상 데이터를 먼저 스패닝하는 것으로 가정한다. 여기서, 좌안 3D 영상 데이터 부분은 프레임 메모리부(730)의 좌안 영역에 쓰이는(저장되는) 데이터이므로 도 5에서 설명한 바와 같이 이 부분에 대한 좌표 및 색상 정보만을 계산하여 쓰기 활성화 신호(W)에 의해 프레임 메모리부(730)에 저장한다. 그리고, 우안 3D 영상 데이터 부분도 동일한 방법으로 프레임 메모리부(730)에 저장한다.
도 7은 본 발명의 실시예와 같은 스패닝(spanning) 방식을 적용하지 않고 프레임 메모리부에 쓰이지(저장되지) 않는 3D 영상 데이터까지 좌표 및 색상 정보를 계산하는 스패닝 방식을 개념적으로 나타내는 도면이다. 도 7에 나타낸 바와 같이 본 발명의 실시예에 같은 스패닝 방식이 적용되지 않은 경우에는 프레임 메모리부(730)에 쓰이지(저장되지) 않는 3D 영상 데이터(즉, 우완 3D 영상 데이터)까지 좌표를 계산하게 된다. 즉, 빗금 치지 않은 부분에 대해서는 쓰기 활성화 신호(W)를 생성하지 않아 프레임 메모리부(730)에 저장되지는 않으나 좌표 및 색상 정보는 동일하게 계산된다.
따라서, 도 6과 같이 본 발명의 실시예와 같은 스패닝 방식을 적용하는 경우 는 연속적으로 프레임 메모리에 색상 정보를 저장하나, 도 7은 연속하지 않게 프레임 메모리에 색상 정보가 저장되므로, 본 발명의 실시예아 같은 스패닝 방식을 적용하는 경우가 그렇치 않은 경우보다 2배에 가까운 영상 처리 속도를 구현할 수 있다.
본 발명의 실시예에 따른 입체 영상 표시 장치는 평판형 TV, 모니터 등과 같이 대형 표시 장치뿐만 아니라, 이동 통신 단말기, 또는 PDA 등에 적용될 수 있다.
한편, 본 발명의 또 다른 실시예에 따른 입체 영상 표시 장치는 도 2에는 도시 되지 않은 모드 변환부(도시 하지 않음)를 포함할 수 있다. 이 경우 모드 변환부는 타이밍 제어부(600)로부터 입력되는 모드 신호에 응답하여 배리어(100')의 액정 배열을 제어한다. 여기서 모드 신호는 입체 영상 활성화 신호에 대응하여 생성되도록 설정될 수 있다. 구체적으로, 입체 영상 활성화 신호가 인가되는 경우, 타이밍 제어부(600)는 모드 신호를 생성하여 모드 변환부로 전달하며, 모드 변환부는 입력되는 모드 신호에 응답하여, 배리어(100')의 액정 배열을 조절하여 불투명 영역(150')를 생성한다. 이때, 데이터 변환부(700)는 입력되는 3D 영상을 좌안용 화소 및 우안용 화소의 배열에 대응하는 입체 영상 데이터로 변환하여 데이터 구동부(300)에 전달하며, 데이터 구동부(300)는 입체 영상 데이터를 대응하는 좌안용 화소 및 우안용 화소에 각각 인가하여 입체 영상을 표시하게 된다. 반면에 입체 영상 활성화 신호가 인가되지 않은 경우, 배리어(100')는 불투명 영역(150')를을 생성하지 않고, 데이터 변환부(700)는 입력되는 3D 영상을 좌안용 화소 및 우안용 화소의에 대한 구별이 없는 평면 영상 데이터 신호를 생성하여 데이터 구동부(300) 에 전달하며, 데이터 구동부(300)는 평면 영상 데이터를 대응하는 화소에 각각 인가하여 평면 영상을 표시하게 된다.
이상에서 본 발명의 바람직한 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.
이상에서 살펴본 바와 같이, 본 발명에 실시예에 따른 입체 영상 표시 장치는 평면 영상용 3D 영상 컨텐츠만이 입력되는 경우에도 실시간으로 입체 영상 데이터로 변환하여 입체 영상을 표시할 수 있다. 또한, 본 발명의 실시예에 따른 데이터 변환부(또는 그래픽 가속칩)는 프레임 메모리에 쓰이는(저장되는) 좌표 및 색상 정보만을 계산하므로 고속의 영상 처리를 속도를 향상시킬 수 있다.

Claims (12)

  1. 복수의 좌안용 화소 및 복수의 우안용 화소를 포함하는 표시부;
    상기 복수의 좌안용 화소에 대응하는 데이터를 저장하는 좌안 영상 영역 및 상기 복수의 우안용 화소에 대응하는 데이터를 저장하는 우안 영상 영역을 포함하는 메모리부;
    입력되는 3D 영상 데이터를 상기 복수 좌안용 화소에 대응하는 좌안용 3D 영상 데이터 또는 상기 복수의 우안용 화소에 대응하는 우안용 3D 영상 데이터로 변환하는 지오매트릭 엔진부; 및
    상기 좌안용 3D 영상 데이터의 좌표 정보 및 색상 정보 또는 상기 우안용 3D 영상 데이터의 좌표 정보 및 색상 정보를 이용하여, 상기 좌안 영상 영역 또는 우안 영상 영역에 저장할 좌표 값 및 상기 좌표 값에 대응하는 색상 정보 값만을 계산하며, 상기 좌표 값을 기초로 상기 색상 정보 값을 상기 메모리부에 저장하는 렌더링 엔진부를 포함하는 입체 영상 표시 장치.
  2. 제1항에 있어서,
    상기 좌표 정보는 소정의 영역 중 소정의 제1 라인의 시작 X좌표 및 끝 X좌표를 포함하고,
    상기 렌더링 엔진부는 상기 제1 라인의 시작 X 좌표에 제1 증가치 씩 증가시켜, 상기 제1 라인에 대한 X좌표 값을 계산하며, 상기 제1 증가치에 대응하여 상기 제1 라인에 대한 색상 정보 값을 계산하는 입체 영상 표시 장치.
  3. 제2항에 있어서,
    상기 색상 정보는 상기 제1 라인의 색상 정보 시작 값 및 색상 정보 끝 값을 포함하며,
    상기 제1 가중치에 대응하여 제1 색상 정보 증가치를 계산하며, 상기 제1 라인에 대한 색상 정보 시작 값에 상기 제1 색상 정보 증가치 씩 증가시켜, 상기 제1 라인에 대한 색상 정보 값을 계산하는 입체 영상 표시 장치.
  4. 제3항에 있어서,
    상기 제1 가중치는 2인 입체 영상 표시 장치.
  5. 제3항에 있어서,
    상기 제1 색상 정보 증가치는, 상기 제1 라인의 시작 X좌표와 상기 제1 라인의 끝 X 좌표간의 거리, 상기 제1 라인의 색상 정보 시작 값과 상기 제1 라인의 색상 정보 끝 값을 이용하여 결정된 가중치에 2배한 값인 입체 영상 표시 장치.
  6. 제1항 내지 제5항 중 어느 한 항에 있어서,
    상기 좌안용 화소에서 출력되는 영상 또는 우안용 화소에서 출력되는 영상을 각각 좌측 방향 또는 우측 방향으로 투사하도록 광 투사 경로를 설정하도록 배열되 어 있는 투명 영역 및 불투명 영역을 포함하는 배리어부를 더 포함하는 입체 영상 표시 장치.
  7. 제1항 내지 제5항 중 어느 한 항에 있어서,
    상기 입체 영상 표시 장치가 이동 통신 단말기의 디스플레이부에 해당하는 입체 영상 표시 장치.
  8. 입력되는 3D 영상 데이터를 스테레오스코픽 영상 데이터로 변환하는 3D 영상-스테레오스코픽 영상 변환기에 있어서,
    상기 3D 영상 데이터를 좌안 또는 우안 각각에 대한 모델뷰 매트릭스 및 프로젝션 매트릭스와 곱셈 연산을 수행하여 좌안용 3D 영상 데이터 또는 우안용 3D 영상 데이터를 생성하는 지오매트릭 엔진부;
    상기 좌안용 3D 영상 데이터 또는 상기 우안용 3D 영상 데이터 중 소정의 영역에 대응하는 제1 라인에 대하여, 상기 제1 라인의 시작 X좌표에 제1 증가치 씩 증가시켜 상기 제1 라인에 대응하는 X 좌표 값을 생성하는 X 좌표 증가부;
    상기 제1 가중치에 대응하여 제1 색상 정보 증가치를 계산하며, 상기 제1 라인의 색상 정보 시작 값에 상기 제1 색상 정보 증가치 씩 증가시키며 상기 제1 라인에 대응하는 색상 정보 값을 계산하는 색상 정보 증가부; 및
    상기 X 좌표 증가부에서 생성된 상기 X 좌표 값에 기초하여 상기 색상 증가부에서 생성되는 상기 색상 정보 값을 메모리에 저장하도록 제어하는 메모리 제어부를 포함하는 3D 영상-스테레오스코픽 영상 변환기.
  9. 제8항에 있어서,
    상기 제1 증가치는 2인 3D 영상-스테레오스코픽 영상 변환기.
  10. 제8항 또는 제9항에 있어서,
    상기 제1 색상 정보 증가치는, 상기 제1 라인의 시작 X좌표와 상기 제1 라인의 끝 X 좌표간의 거리, 상기 제1 라인의 색상 정보 시작 값과 상기 제1 라인의 색상 정보 끝 값을 이용하여 결정된 가중치에 2배한 값인 3D 영상-스테레오스코픽 영상 변환기.
  11. 제8항 또는 제9항에 있어서,
    상기 소정의 영역은 폴리곤에 대응되는 3D 영상-스테레오스코픽 영상 변환기.
  12. 제8항 또는 제9항에 있어서,
    상기 모델뷰 매트릭스는 3D 영상을 관찰하는 지점에 대응하는 파라미터들이 배열되어 있는 매트릭스이고, 상기 프로젝션 매트릭스는 3D 영상에 대한 원근감에 대응하는 파라미터들이 배열되어 있는 매트릭스인 3D 영상-스테레오스코픽 영상 변환기.
KR1020050060211A 2005-07-05 2005-07-05 입체 영상 표시 장치 KR100932977B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020050060211A KR100932977B1 (ko) 2005-07-05 2005-07-05 입체 영상 표시 장치
JP2006171871A JP4933846B2 (ja) 2005-07-05 2006-06-21 立体映像表示装置、および3d映像−立体変換機
US11/480,730 US8154543B2 (en) 2005-07-05 2006-07-03 Stereoscopic image display device
EP06116598.1A EP1742490B1 (en) 2005-07-05 2006-07-05 Stereoscopic image display device
CNB2006101011579A CN100570432C (zh) 2005-07-05 2006-07-05 立体图像显示设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050060211A KR100932977B1 (ko) 2005-07-05 2005-07-05 입체 영상 표시 장치

Publications (2)

Publication Number Publication Date
KR20070005091A KR20070005091A (ko) 2007-01-10
KR100932977B1 true KR100932977B1 (ko) 2009-12-21

Family

ID=37072552

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050060211A KR100932977B1 (ko) 2005-07-05 2005-07-05 입체 영상 표시 장치

Country Status (5)

Country Link
US (1) US8154543B2 (ko)
EP (1) EP1742490B1 (ko)
JP (1) JP4933846B2 (ko)
KR (1) KR100932977B1 (ko)
CN (1) CN100570432C (ko)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5332531B2 (ja) * 2008-11-18 2013-11-06 ソニー株式会社 画像表示装置と画像表示方法および画像表示システム
KR100943307B1 (ko) * 2008-12-22 2010-02-23 주식회사 서울과학기기 물리량 영상 분석장치 및 이를 이용한 물리량 영상 분석방법
EP2434331B1 (en) * 2009-05-22 2015-03-04 Sharp Kabushiki Kaisha Stereoscopic display device
TWI422213B (zh) * 2009-07-29 2014-01-01 Mstar Semiconductor Inc 影像畫面偵測裝置及其方法
CN102474632A (zh) * 2009-12-08 2012-05-23 美国博通公司 处理多个3-d视频格式的方法和系统
JP5384404B2 (ja) * 2010-03-16 2014-01-08 日本放送協会 分割三次元オブジェクトデータ抽出装置、要素画像生成装置、分割三次元オブジェクトデータ抽出プログラム、および要素画像生成プログラム
CN101783968B (zh) * 2010-04-02 2013-09-11 福州华映视讯有限公司 立体显示器
FR2966632B1 (fr) * 2010-10-22 2016-12-30 Microoled Dispositif d'affichage matriciel de deux images fusionnees
EP2811912B1 (en) * 2012-01-24 2017-06-21 St. Jude Medical Puerto Rico LLC Balloon location device manifold for vascular closure device
CN102629607B (zh) * 2012-02-09 2016-02-10 京东方科技集团股份有限公司 阵列基板和双视场显示装置及其制造方法
CN102629041B (zh) * 2012-02-09 2014-04-16 京东方科技集团股份有限公司 一种3d显示装置及其制造方法
CN105578175B (zh) * 2014-10-11 2018-03-30 深圳超多维光电子有限公司 立体显示装置检测系统及其检测方法
CN105007480A (zh) * 2015-07-06 2015-10-28 上海玮舟微电子科技有限公司 一种三维数据的裸眼3d显示方法及系统
CN105704468B (zh) * 2015-08-31 2017-07-18 深圳超多维光电子有限公司 用于虚拟和现实场景的立体显示方法、装置及电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997023097A2 (en) * 1995-12-19 1997-06-26 Philips Electronics N.V. Parallactic depth-dependent pixel shifts
KR20030088513A (ko) * 2002-03-14 2003-11-19 미쓰비시덴키 가부시키가이샤 3차원 그래픽 묘화 장치
WO2005013623A1 (en) 2003-08-05 2005-02-10 Koninklijke Philips Electronics N.V. Multi-view image generation
KR20050078737A (ko) * 2004-02-02 2005-08-08 학교법인 한양학원 2차원 영상신호를 3차원 영상신호로 변환하는 장치

Family Cites Families (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6496183B1 (en) 1998-06-30 2002-12-17 Koninklijke Philips Electronics N.V. Filter for transforming 3D data in a hardware accelerated rendering architecture
FR2532267B1 (fr) 1982-08-31 1988-05-27 Lely Nv C Van Der Tracteur comportant une pluralite de roues motrices
US4601053A (en) * 1983-11-21 1986-07-15 Grumman Aerospace Corporation Automatic TV ranging system
US4896210A (en) * 1987-11-16 1990-01-23 Brokenshire Daniel A Stereoscopic graphics display terminal with image data processing
JP2857429B2 (ja) 1989-10-02 1999-02-17 日本放送協会 3次元画像表示装置および方法
US5255211A (en) * 1990-02-22 1993-10-19 Redmond Productions, Inc. Methods and apparatus for generating and processing synthetic and absolute real time environments
JPH0477882A (ja) * 1990-07-13 1992-03-11 Daikin Ind Ltd 三角形ポリゴン描画方法およびその装置
JPH07306955A (ja) 1992-07-24 1995-11-21 Walt Disney Co:The 三次元イリュージョンを生み出す方法およびシステム
US5581665A (en) * 1992-10-27 1996-12-03 Matsushita Electric Industrial Co., Ltd. Three-dimensional object movement and transformation processing apparatus for performing movement and transformation of an object in a three-diamensional space
US6011581A (en) * 1992-11-16 2000-01-04 Reveo, Inc. Intelligent method and system for producing and displaying stereoscopically-multiplexed images of three-dimensional objects for use in realistic stereoscopic viewing thereof in interactive virtual reality display environments
US5394202A (en) 1993-01-14 1995-02-28 Sun Microsystems, Inc. Method and apparatus for generating high resolution 3D images in a head tracked stereo display system
JP3101521B2 (ja) * 1994-03-28 2000-10-23 三洋電機株式会社 立体映像表示パネル及び立体映像表示装置
US6985168B2 (en) * 1994-11-14 2006-01-10 Reveo, Inc. Intelligent method and system for producing and displaying stereoscopically-multiplexed images of three-dimensional objects for use in realistic stereoscopic viewing thereof in interactive virtual reality display environments
JP3459721B2 (ja) * 1995-05-22 2003-10-27 キヤノン株式会社 立体画像表示方法及びそれを用いた立体画像表示装置
JP3579162B2 (ja) 1995-06-29 2004-10-20 松下電器産業株式会社 立体cg画像生成装置
US6005607A (en) 1995-06-29 1999-12-21 Matsushita Electric Industrial Co., Ltd. Stereoscopic computer graphics image generating apparatus and stereoscopic TV apparatus
US6640004B2 (en) * 1995-07-28 2003-10-28 Canon Kabushiki Kaisha Image sensing and image processing apparatuses
US5864342A (en) * 1995-08-04 1999-01-26 Microsoft Corporation Method and system for rendering graphical objects to image chunks
WO1997015150A1 (fr) * 1995-10-19 1997-04-24 Sony Corporation Procede et dispositif de formation d'images en trois dimensions
WO1997018667A1 (fr) * 1995-11-14 1997-05-22 Sony Corporation Dispositif pour effets speciaux, procede de traitement d'images et procede de generation d'ombres
AUPN732395A0 (en) * 1995-12-22 1996-01-25 Xenotech Research Pty Ltd Image conversion and encoding techniques
DE69730565T2 (de) 1996-06-26 2005-02-03 Matsushita Electric Industrial Co., Ltd., Kadoma Gerät zur Erzeugung eines stereoskopischen bewegenden Bildes mittels Computergraphik
US6108005A (en) * 1996-08-30 2000-08-22 Space Corporation Method for producing a synthesized stereoscopic image
KR100239132B1 (ko) 1996-10-10 2000-01-15 윤종용 3차원 시차 그리기 장치 및 방법
JPH10232953A (ja) * 1997-02-20 1998-09-02 Mitsubishi Electric Corp 立体視画像生成装置
GB9706000D0 (en) 1997-03-22 1997-05-07 Philips Electronics Nv Multiple viewpoint image generation
US5982375A (en) * 1997-06-20 1999-11-09 Sun Microsystems, Inc. Floating point processor for a three-dimensional graphics accelerator which includes single-pass stereo capability
JP3005499B2 (ja) * 1997-06-26 2000-01-31 日本電気アイシーマイコンシステム株式会社 図形処理装置及び図形処理方法
US20010043226A1 (en) * 1997-11-18 2001-11-22 Roeljan Visser Filter between graphics engine and driver for extracting information
JP4698831B2 (ja) 1997-12-05 2011-06-08 ダイナミック ディジタル デプス リサーチ プロプライエタリー リミテッド 画像変換および符号化技術
KR100306695B1 (ko) * 1998-04-16 2001-11-30 윤종용 마이크로플러라이저를이용한입체영상디스플레이장치
JP4149037B2 (ja) 1998-06-04 2008-09-10 オリンパス株式会社 映像システム
US6515662B1 (en) * 1998-07-16 2003-02-04 Canon Kabushiki Kaisha Computer apparatus for providing stereoscopic views from monographic images and method
US6525737B1 (en) * 1998-08-20 2003-02-25 Apple Computer, Inc. Graphics processor with pipeline state storage and retrieval
US6631205B1 (en) 1999-01-13 2003-10-07 Canon Kabushiki Kaisha Stereoscopic imaging in a portable document format
TW413794B (en) 1999-02-26 2000-12-01 Sunplus Technology Co Ltd A 3D graphics processor based on horizontal scan lines as processing unit and the drawing method therefor
JP3286633B2 (ja) 1999-09-14 2002-05-27 株式会社ソニー・コンピュータエンタテインメント 画像作成方法、記憶媒体およびプログラム実行装置
JP4341135B2 (ja) * 2000-03-10 2009-10-07 コニカミノルタホールディングス株式会社 物体認識装置
JP4141620B2 (ja) 2000-07-04 2008-08-27 日本放送協会 立体物表示システム及びその受信装置
US20020105484A1 (en) * 2000-09-25 2002-08-08 Nassir Navab System and method for calibrating a monocular optical see-through head-mounted display system for augmented reality
US20020154214A1 (en) * 2000-11-02 2002-10-24 Laurent Scallie Virtual reality game system using pseudo 3D display driver
US7371163B1 (en) * 2001-05-10 2008-05-13 Best Robert M 3D portable game system
US20020191000A1 (en) * 2001-06-14 2002-12-19 St. Joseph's Hospital And Medical Center Interactive stereoscopic display of captured images
JP4708619B2 (ja) 2001-07-31 2011-06-22 キヤノン株式会社 立体画像形成システムおよび立体画像形成方法
GB0119176D0 (en) * 2001-08-06 2001-09-26 Ocuity Ltd Optical switching apparatus
US7277121B2 (en) * 2001-08-29 2007-10-02 Sanyo Electric Co., Ltd. Stereoscopic image processing and display system
JP2003070022A (ja) * 2001-08-29 2003-03-07 Sanyo Electric Co Ltd 立体画像圧縮方法、装置、およびシステム
JP4236428B2 (ja) 2001-09-21 2009-03-11 三洋電機株式会社 立体画像表示方法および立体画像表示装置
JP3673217B2 (ja) 2001-12-20 2005-07-20 オリンパス株式会社 映像表示装置
US6924799B2 (en) 2002-02-28 2005-08-02 Hewlett-Packard Development Company, L.P. Method, node, and network for compositing a three-dimensional stereo image from a non-stereo application
JP2004040445A (ja) * 2002-07-03 2004-02-05 Sharp Corp 3d表示機能を備える携帯機器、及び3d変換プログラム
KR100475060B1 (ko) 2002-08-07 2005-03-10 한국전자통신연구원 다시점 3차원 동영상에 대한 사용자 요구가 반영된 다중화장치 및 방법
JP4093833B2 (ja) * 2002-09-25 2008-06-04 シャープ株式会社 電子機器
JP2004165710A (ja) * 2002-09-27 2004-06-10 Sharp Corp 立体画像表示装置、立体画像記録方法及び立体画像伝送方法
US20060098864A1 (en) 2002-12-03 2006-05-11 Ziel Jonathan M Method and apparatus to display 3d rendered ultrasound data on an ultrasound cart in stereovision
JP4400242B2 (ja) * 2003-02-27 2010-01-20 日本電気株式会社 画像表示装置、携帯端末装置及び表示パネル
US7663570B2 (en) * 2003-02-27 2010-02-16 Nec Corporation Image display device, portable terminal device and display panel
JP4677175B2 (ja) 2003-03-24 2011-04-27 シャープ株式会社 画像処理装置、画像撮像システム、画像表示システム、画像撮像表示システム、画像処理プログラム、及び画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体
US20040212612A1 (en) * 2003-04-28 2004-10-28 Michael Epstein Method and apparatus for converting two-dimensional images into three-dimensional images
JP2005011275A (ja) 2003-06-23 2005-01-13 Fiatlux:Kk 立体画像表示システム及び立体画像表示プログラム
JP4383241B2 (ja) * 2004-05-07 2009-12-16 任天堂株式会社 描画ポリゴン数を増やす画像処理システム
US7545380B1 (en) * 2004-12-16 2009-06-09 Nvidia Corporation Sequencing of displayed images for alternate frame rendering in a multi-processor graphics system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997023097A2 (en) * 1995-12-19 1997-06-26 Philips Electronics N.V. Parallactic depth-dependent pixel shifts
KR20030088513A (ko) * 2002-03-14 2003-11-19 미쓰비시덴키 가부시키가이샤 3차원 그래픽 묘화 장치
WO2005013623A1 (en) 2003-08-05 2005-02-10 Koninklijke Philips Electronics N.V. Multi-view image generation
KR20050078737A (ko) * 2004-02-02 2005-08-08 학교법인 한양학원 2차원 영상신호를 3차원 영상신호로 변환하는 장치

Also Published As

Publication number Publication date
CN100570432C (zh) 2009-12-16
EP1742490A1 (en) 2007-01-10
KR20070005091A (ko) 2007-01-10
US8154543B2 (en) 2012-04-10
JP2007018507A (ja) 2007-01-25
JP4933846B2 (ja) 2012-05-16
CN1892288A (zh) 2007-01-10
EP1742490B1 (en) 2015-03-04
US20070008315A1 (en) 2007-01-11

Similar Documents

Publication Publication Date Title
KR100932977B1 (ko) 입체 영상 표시 장치
KR100898287B1 (ko) 입체 영상 표시 장치
US8207961B2 (en) 3D graphic processing device and stereoscopic image display device using the 3D graphic processing device
US9398290B2 (en) Stereoscopic image display device, image processing device, and stereoscopic image processing method
TWI594018B (zh) 廣視角裸眼立體圖像顯示方法、裸眼立體顯示設備以及其操作方法
US9549174B1 (en) Head tracked stereoscopic display system that uses light field type data
CN103873844A (zh) 多视点自动立体显示器及控制其最佳观看距离的方法
US20060066718A1 (en) Apparatus and method for generating parallax image
US11310487B1 (en) Frustum change in projection stereo rendering
CN105430369B (zh) 自动立体三维显示设备
CN104079913A (zh) 光栅式立体显示器兼容2d-3d显示的子像素排列方法、装置
KR20070016712A (ko) 입체영상 표시장치 및 그의 구동방법
KR20140115854A (ko) 입체 영상 표시 장치 및 입체 영상 표시 방법
US20220400245A1 (en) Multiview autostereoscopic display using lenticular-based steerable backlighting
KR102279816B1 (ko) 무안경 입체영상표시장치
JP2015037282A (ja) 画像処理装置、画像処理方法及びプログラム
KR102334031B1 (ko) 무안경 입체영상표시장치 및 그 구동방법
KR102189009B1 (ko) 삼차원영상 표시장치 및 그 구동방법
JP2004361467A (ja) 表示装置及び方法
KR20220105192A (ko) 표시 장치 및 표시 장치 제어 방법

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121130

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20131129

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20141125

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20141128

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20151210

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20161208

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20171211

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20181210

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20191210

Year of fee payment: 11