KR20140030111A - 의사-3d 인위적 원근법 및 장치 - Google Patents

의사-3d 인위적 원근법 및 장치 Download PDF

Info

Publication number
KR20140030111A
KR20140030111A KR1020137016961A KR20137016961A KR20140030111A KR 20140030111 A KR20140030111 A KR 20140030111A KR 1020137016961 A KR1020137016961 A KR 1020137016961A KR 20137016961 A KR20137016961 A KR 20137016961A KR 20140030111 A KR20140030111 A KR 20140030111A
Authority
KR
South Korea
Prior art keywords
image
processor
artificial perspective
pseudo
parameter
Prior art date
Application number
KR1020137016961A
Other languages
English (en)
Other versions
KR101863767B1 (ko
Inventor
제임스 에프 커티스
숀 디 굿윈
크리스토퍼 엠 릴
레이먼드 디 콘클링
Original Assignee
테라넥스 시스템즈 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 테라넥스 시스템즈 인코포레이티드 filed Critical 테라넥스 시스템즈 인코포레이티드
Publication of KR20140030111A publication Critical patent/KR20140030111A/ko
Application granted granted Critical
Publication of KR101863767B1 publication Critical patent/KR101863767B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof

Abstract

본 발명은 2D 미디어를 의사-3D 좌우 이미지 쌍들로 변환하는 것에 관한 것이다. 특히, 2D 이미지의 좌우 변환에 대한 인위적 원근을 부과하는 것에 관한 것이다. 디스플레이시 이미지의 왜곡된 쌍은 3D 이미지로서 시청자에 해석될 것이다. 의사-3D 좌우 이미지 쌍들은 장면에 있는 대상물의 깊이 맵핑 없이 그리고 연속 이미지 프레임에서 대상물의 위치들을 비교하지 않고도 만들어질 수 있다.

Description

의사-3D 인위적 원근법 및 장치{PSEUDO-3D FORCED PERSPECTIVE METHODS AND DEVICES}
본 발명은 2D 미디어를 좌우 이미지 쌍의 의사-3D로 만드는 변환에 관한 것이다. 보다 상세하게, 본 발명은 2D 이미지의 좌우 버전에 인위적 원근을 부여하는 것에 관한 것이다. 디스플레이시 왜곡된 이미지 쌍들은 3D 이미지로서 눈과 머리에 의해 해석될 것이다. 의사-3D 인위적 원근 이미지 쌍은 장면에 있는 대상물들을 깊이 맵핑하지 않고도 그리고 연속 이미지 프레임에서 대상물들의 위치를 비교하지 않고도 만들어질 수 있다.
약 일 년 전, 아바타라는 영화가 3차원(3D) 영화가 이전의 티켓 판매 기록들을 깨뜨리며 대중을 열광시켰다. 그 후로, 추가의 피처필름들(feature films)이 3D로 성공적으로 개봉되었다. 극장들은 3D 프로젝터를 추가하였다. 텔레비전 제조사들은 3D 입체 DVDs를 다시 재생하고 심지어 좌우 보기를 컨트롤하는 액티브 셔터 안경을 이용해 3D를 보기 위해 자동으로 2D를 변환하는 능력을 추가했다. 2개 렌즈와 조절가능한 시차(parallax)를 갖는 포켓 사이즈의 3D 카메라가 현재 이용가능하며 보조 렌티큘러 뷰잉스크린이 수반된다. 다시 말하면, 3D 입체 미디어가 태어났다.
3D 미디어에 대한 열광을 무색하게 하는 것은 3D 보기를 위해 2D 미디어를 변환하는데 있어 어려움인데 이는 시청자가 장면내 다양한 대상물들까지의 거리를 나타내는 깊이 마스크를 계산하는 것을 포함한다. 3D 입체 이미지 쌍들을 만드는 것은 깊이 맵(depth map)을 기초로 장면의 일부에 시차 계산을 적용하는 것이다.
3D 디스플레이를 위해 2D 컨텐츠를 변환하는 텔레비전은 배경에서 전경(前景)까지 대상물이 튀어나올 때 스크린에서 볼 수 있는 동적 깊이 맵핑에 실수를 한다. 깊이 맵 알고리즘이 그 대상물까지의 거리를 재분류할 때, 가령, 대상물이 이동해 대상물보다 시청자에 더 가까운 것으로 이전에 분류되었던 장면의 일부를 가리면, 대상물이 앞으로 (또는 뒤로) 튀어나온다. 깊이 맵 알고리즘은 움직이는 대상물을 재분류하여 앞으로 튀어나와 진다. 튀어나온 인위물들은 유쾌한 것에서 불쾌한 것에까지 이른다.
따라서, 2D 미디어를 3D 이미지 쌍으로 변환시키는 자동 및 컴퓨터보조 방법 및 시스템을 도입할 기회가 생긴다. 요구되는 사용자 개입량 및 비용에 따라, 3D 미디어를 준비하는 방송사 또는 다른 공급자들에 의해 향상된 시스템이 사용될 수 있거나, TV 및 기타 소비제들에 직접 포함될 수 있다. 더 나은 3D 재생이 잇따를 수 있다.
본 발명은 2D 미디어를 의사-3D 좌우 이미지 쌍들로 변환시키는 것에 관한 것이다. 보다 상세하게, 2D 이미지의 좌우 버전에 대한 인위적 원근을 부여하는 것에 관한 것이다. 디스플레이시 왜곡된 이미지 쌍은 3D 이미지로서 시청자에게 해석될 것이다. 의사-3D 인위적 원근 이미지 쌍들은 스크린에서 대상물의 깊이 맵핑 없이도 그리고 연속 이미지 프레임들에서 대상물의 위치를 비교하지 않고도 만들어질 수 있다. 본 발명의 특별한 태양들이 특허청구범위, 명세서 및 도면에 기술되어 있다.
본 발명의 내용에 포함됨.
도 1은 3D 디스플레이 및 변환 프로세서 포맷을 도시한 것이다.
도 2는 2D 이미지를 인위적 원근 의사-3D 이미지 쌍으로 변환하는 것을 도시한 것이다.
도 3a-e는 인위적 원근과 결합될 수 있는 변환 및 변형을 도시한 것이다. 도 3c는 사다리꼴 투영 대신 구배진 테이퍼를 도시한 것이다. 도 3f는 깊이감을 보강하도록 적용될 수 있는 다른 오프세트 변환을 도시한 것이다.
도 4는 VC100의 블록도이다.
도 5-7은 개시된 기술의 적용을 도시한 것이다. 도 5는 의사-3D 인위적 원근 이미지 쌍들의 기본 생성을 도시한 것이다. 도 6은 왜곡 파라미터가 배경에 따라 조절되는 워크플로우를 도시한 것이다. 도 7은 나중 변환을 위해 왜곡 파라미터를 계산 및 저장하는 것을 도시한 것이다.
도 8은 떨어져 이격된 2개 카메라들의 사시도를 도시한 것이다.
도 9는 변환 파라미터 데이터와 함께 어떻게 의사-3D 이미지 쌍들이 수신기에 의해 2D 이미지로부터 구성되는지를 기능적으로 판단하는 이미지 스트림을 전송하는 것을 도시한 것이다.
도 10은 본 명세서에 개시된 디바이스 중 일부를 만들기 위해 다양한 방식으로 조합되는 프로세서의 하이레벨 블록도 및 메모리 블록이다.
도 11은 파라미터들이 이미지 스트림에 들어 있는 이미지 스트림을 송수신하는 송신기/수신기 쌍의 하이레벨 블록도이다.
도 12는 제조사의 물품으로서 사용될 수 있는 비일시적 메모리의 한가지 타입을 도시한 것이다.
2D를 3D로 변환하는 수단은 오랫동안 양호한 깊이 맵이었다. 수십 년이 지나면서, 연구원들은 깊이 맵을 구성하는 새롭고 향상된 방식을 제안하였다. 특허출원 US 2010/0165081(2010년 7월1일 공개) 및 US 2010/0118127(2010년 5월13일 공개)은 깊이 맵을 준비하기 위해 배경 컨텐츠로부터 전경 대상물물을 분리하는 다양한 방법들을 예시하고 있다.
2010년 현재, 주요 소비제 전자기기 제조사들은 단독으로 분주히 2D-3D 변환을 위해 깊이 맵을 자동으로 만들어내는 칩셋을 갖는 텔레비전을 개발해 내놓고 있다. 구매자들은 액티브 셔터 안경을 착용해 변환된 이미지들을 본다. 안경은 좌우 입체 이미지들 간에 디스플레이를 시분할한다.
본 출원인은 깊이 맵핑을 알았으나, 종래 접근법을 발판으로 삼아 전념하는 연구원은 아니다. 본 출원인은 깊이 맵을 계산하기 위한 어떤 필요로 인한 변환 프로세서를 없애고 대신 한 쌍의 왜곡된 이미지들로부터 깊이 정보를 추출하기 위한 사람의 시간 및 뇌에 의존하는 완전히 다른 접근을 취했다.
본 출원의 도 8에 도시된 바와 같이 본 출원인이 입체 이미지를 만들기 위해 한 쌍의 카메라로 작업하면서 천재적 발상이 나왔다. 본 출원인은 인간 시각을 모방한 카메라를 이용하면서 하나의 2D 이미지의 좌우 버전을 2대 카메라의 원근과 일치하도록 왜곡시킴으로써 카메라의 뷰를 모방할 수 있음을 알았다.
도 8은 떨어진 2대 카메라의 원근을 도시한 것이다. 입체 카메라 셋업시, 좌우 렌즈 간의 거리는 일반적으로 사람 눈의 간격과 유사한 65 내지 75㎝이다. 투사 면에서, 각 렌즈 또는 눈은 대상물의 평평한 뷰를 본다. 2개 시각들 간의 차는 대상물의 2개의 평면 뷰의 회전과 같다. 물론, 차의 또 다른 부분은 다른 위치에서 볼 때 어떻게 전경 대상물이 배경에 대해 나타나는가이다. 하나의 2D 이미지의 좌우 버전을 왜곡시키는 것은 시각들 간의 전경 대상물 차를 모방할 수 없다.
도 8에서, 상부(좌측)(811)와 하부(우측)(831) 카메라는 각각의 보기축(812,832)을 따라 대상물(824)을 본다. 카메라는 각각의 보기축에 수직한 보기면(813,833)에 대상물(824)의 투사라고 생각될 수 있는 이미지를 기록한다. 물론, 이는 깊이 맵과 복잡한 변환을 편의상 적용하기 위한 이유의 일부로서 어떻게 전경 대상물이 다른 위치에서 볼 때 배경에 대해 이동된 것으로 보이는지를 무시함에 따른 간략화이다.
종래의 교시에도 불구하고, 본 출원인은 중앙축(822)을 따라 위치된 카메라(821)에 의해 기록된 하나의 2D 이미지로부터 좌우 왜곡 이미지를 만들며 실험했다. 본 출원인은 왜곡된 좌측 이미지쌍을 만들어 인위적 원근으로 의사-3D 입체뷰를 만들었다. 전경 대상물을 배경 대상물과 분리하는데 깊이 맵핑 정보가 이용되기 때문에 의사-3D이다. 직사각형 정면뷰는 뷰잉포인트가 중심을 벗어나 좌우로 이동하는 것처럼 보이게 왜곡되는 면에서 2D 이미지에 대한 인위적 원근을 부과한다.
본 출원인은 이 왜곡 기술을 개선하면서, 만족스러운 인위적 원근 변환각들이 보기면(813 및 833) 간의 각도차(814)를 크게 초과한 것을 발견했다. 가령, 10 피트에서, 3인치의 카메라 이격이 2도 미만의 각도차로 옮겨진다. 가출원이 출원되었을 때, 6.5도에서 8도의 보기 각도차(814)에 해당하는 것으로 생각된 인위적 원근 왜곡은 다양한 장면들에 대해 주관적으로 더 만족스러운 것으로 여겨졌다. 사용된 워핑 하드웨어(warping hardware)를 한층 더 조사하자, 주관적으로 만족스러운 것으로 선택된 보기 각도차(814)가 실제로 2.98도에서 4.98도였음이 판명되었다.
이 도입을 염두해 두고, 첨부도면으로 돌아간다.
도 1은 3D 디스플레이 및 변환 프로세서 포맷을 도시한 것이다. 입체 이미지를 위한 3가지 타입의 디스플레이들은 텔레비전, 투사 스크린 및 렌티큐럴 패널이다. 이 개시 때, 3D 디스플레이 능력을 갖는 텔레비전(114)은 일반적으로 액티브 셔터 안경(113)을 통해 보여진다. 액티브 셔터 안경은 텔레비전이 좌우 눈 이미지를 디스플레이할 때 동기화되는 텔레비전 스크린 뷰의 좌우 보기를 번갈아 제공한다. 30 또는 60Hz 대신 120 또는 240Hz 크기로 크게 증가된 리프레시 속도로 인해 텔레비전이 좌우 눈에 대한 별개의 이미지들을 디스플레이하게 하게 한다.
투사 스크린(124)이 극장에서 사용된다. 2 이상의 프로젝터들(122)이 다른 편광상태 또는 다른 컬러 위상을 가지며 좌우 눈을 위한 이미지를 스크린에 동시에 투사한다. 저렴한 보기 안경(123)은 좌우 눈에 대해 다른 렌즈를 갖는다. 렌즈 쌍의 일부는 수평 및 수직 편광기, 시계방향 및 반시계방향 편광기, 녹색 및 적색 렌즈 또는 청색 및 진홍색 렌즈이다.
렌티큘러 스크린(134)은 안경이 전혀 필요없이 좌우 눈에 별도의 이미지들을 보낸다. 렌티큘러 스크린의 기계 설명은 본 개시의 범위를 넘어선다.
이들 타입의 3D 디스플레이들은 이미지 쌍을 재현한다. 본 출원인은 다양한 하드웨어 플랫폼들을 이용해 왜곡된 이미지 쌍들을 만드는 것을 개시한다. Teranex 사의 VC100과 같은 전용 프로세서(111)가 사용될 수 있다. 이 장치는 도 4의 블록도에 더 예시되어 있고, 단일 명령 다중 데이터(SIMD) 능력을 갖는 한 쌍의 프로세서들을 이용해 나란히 한 쌍의 왜곡된 이미지들을 만든다. 단일 프로세서는 좌우 이미지 왜곡을 순차적으로 처리할 정도로 충분히 빠를 수 있다. 전용 프로세서(111)는 대안으로 CPU, GPU 또는 디지털 신호 프로세서(DSP)와 같이 대량 생산된 프로세서에 실행되는 FPGA 또는 프로그램일 수 있다.
대안으로, 그래픽 카드와 같은 부속(add-in)카드가 왜곡된 이미지 쌍을 만드는데 적절한 하드웨어를 보유할 수 있다. 그래픽 카드는 일반적으로 그래픽 처리유닛(GPU)을 이용한다. 보다 일반적으로, 부속카드는 FGPA, GPU, CPU 또는 DSP를 이용할 수 있다. CPU는 ASIC 또는 RISC 디자인일 수 있다. 프로세서는 대안으로 변환 프로세서에서 표면 실장 또는 다른 패키징을 위한 칩에 만들어질 수 있다. 프로세서는 더 큰 칩내에 있는 별개의 칩 또는 블록일 수 있다. 이런 면에서, 프로세서는 교시된 기술을 구체적으로 실행하는 펌웨어 또는 소프트웨어를 실행하는 광범위한 전자계산장치를 말한다.
도 2는 2D 이미지(201)를 인위적 원근 3D 이미지 쌍(211,213)으로 변환하는 것을 나타낸다. 본 출원인은 좌측 이미지의 우측면과 우측 이미지의 좌측면을 "내부"(212)라 하였고, 이는 각 이미지의 외부와 반대이다. 도면에서, 수직 내부 에지(212)는 쌍에서 각 이미지의 수직 외부 에지보다 더 크다. 도면에서, 이미지의 상단과 하단에서 테이퍼는 대칭이다. 좌우 이미지의 테이퍼는 상보적이다. 상보적이란 내부에서 외부 에지까지의 유사한 테이퍼들이 좌우 이미지들에 적용되는 것을 말한다. 최종 발생한 이미지들은 내부 에지에 대해 대칭인 프로파일을 갖는다.
다른 차이점으로, 네거티브 보기 각도차가 몇몇 장면에 대해 더 만족스러운 것으로 나타난다. 이와 같은 장면에서, 좌우 이미지 쌍들(211,213)을 필수적으로 스와핑하여 내부 에지가 외부 에지보다 더 짧다. 소위 네거티브 보기 각도차는 이미지의 일부분이 스크린 표면보다 시청자에 더 가까운 공간에 있는 것으로 보이는 효과를 만든다. 반대로, 포지티브 보기 각도차는 이미지의 일부분이 스크린보다 사용자로부터 더 멀리 있는 것으로 보이게 하며, 이는 큰 파도 서핑의 텔레스코픽 보기와 같은 원거리 이미지들에 만족스러워서, 어떤 것이 스크린 거리보다 시청자에 더 가까울 수 있다는 것이 믿기 어려울 수 있다. 전투사들 중 한 명의 눈을 통해 칼싸움은 특수용 칼이 스크린 밖으로 휘둘러져 관중들을 움찔하게 만들며 더 잘 보여질 것이다.
도 3a 내지 도 3e는 도 2에서 인위적 원근과 결합될 수 있는 변화 및 변환을 도시한 것이다. 도 3a에서, 높이를 돋보이게 하는 인위적 원근을 만들기 위해 수직 테이퍼가 적용된다. 도 3b에서, 좌측 의사-3D 이미지로 높이를 돋보이게 하기 위한 인위적 원근이 적용된다.
도시된 바와 같이 이미지(201)를 변환하는 선형 대수를 때로 "투사 변환"이라 한다. 렙토니카(Leptonica) 웹사이트에서 찾은 "Affine transformations (and cousins)" 이라는 제목의 논문이 투사 변환을 잘 설명하고 있으며, 본 명세서에 참조로 합체되어 있다. 더 많이 통용되는 용어의 일부, 인위적 원근 의사-3D 이미지 쌍을 만드는데 유용한 왜곡 또는 워핑을 소위 "대형보정(keystone correction)"이라 하며, 이는 투사 스크린의 코너에 투사 이미지를 정렬하는데 사용된다. 가령 본 명세서에 참조로 합체되어 있는 US, 6.520,647을 참조하라. 본원의 목적을 위해, 대형보정은 직사각형 보기 스크린에 투사를 따르게 하기보다 본래 패턴에 대한 인위적 원근을 부여하기 위해 바꾸어 진다.
매트릭스 변환 또는 선형대수를 적용하지 않고도, 일반 왜곡 매트릭스가 이미지(201)를 의사-3D 이미지 쌍(211,213)으로 변환하는데 사용될 수 있다. 일반 왜곡 매트릭스 접근법은 본 명세서에 참조로 합체된 특허 US 7,384,158 및 7, 126,616에 설명 및 도시되어 있다.
시청자에 가까이 보이는 대신, 이미지의 중심이 뒤로 물러나게 그리고 스크린보다 시청자로부터 더 멀어지게 요청하는 특정한 컨텐츠, 특정한 장면이 있을 수 있다. 이미지의 중심이 극적으로 시청자로부터 물러날 경우, 터널, 파이프 또는 우물의 구멍은 더 현실적으로 보이거나 심상치 않게 보일 수 있다. 인위적 원근 의사-3D 이미지 쌍의 외부 에지리보다 더 긴 내부 에지로 인해 구멍의 끝이 스크린보다 더 멀리 있는 것처럼 보일 수 있다.
이런 기술의 일실시예는 의사-3D 이미지 쌍의 외부 에지보다 더 큰 내부 에지를 갖는 인위적 원근에 적용되는 반면, 본 개시는 외부 에지보다 더 짧은 내부 에지를 갖는 인위적 원근에 그리고 일반적으로 스크린 단위로 또는 프로그램 단위로 소정의 투사와 일치하도록 적절한 왜곡 파라미터들을 선택하는데 확장된다.
도 3c는 의사-3D 이미지 쌍(211,213)의 사다리꼴 투사 대신 구배진 테이퍼(331,332)를 도시한 것이다. 도면에서, 테이퍼는 이미지의 중심에 대해 오목하다. 대안으로, 테이퍼는 이미지의 중심으로부터 돌출한 볼록일 수 있다. 곡선은 상술한 '158 및 '616 특허에 개시된 바와 같이 현수선 함수, 포물선 또는 더 일반적으로 다항식으로 정의될 수 있다. 테이퍼진 곡선들에 대한 한가지 사용은 때로 어안(魚眼)렌즈로 캡쳐된 이미지를 재형성하는데 적용되면서 이미지를 만드는 것과 같이 사용된 렌즈의 명백한 초점길이를 바꾸는 것일 수 있다.
도 2에서와 같이 도 3c에서도, 상단 및 하단 테이퍼들이 수평축 주위에서 대칭인 것으로 도시되어 있다. 뷰포인트가 이미지의 하단에 있고 그리고 전체 스크린이 눈높이 위에 있을 때와 같이, 상단 페이퍼가 하단 페이퍼보다 더 큰 각도로 테이퍼질 수 있는 상황들이 있을 수 있다. 시청자가 건물 정면 또는 기타 평평한 대상물의 좌 또는 우로 볼 때 또 다른 코너 케이스가 있을 수 있다. 중심으로부터 벗어난 비대칭 다각형이 원래 이미지(201) 코너들의 바람직한 투사를 기술할 수 있다. 명백한 보기 각도들인 US 6,520,647 참조하라. 도 8의 참고시, 장면의 하단 눈높이는 도 3a에 도시된 바와 같이 수평 및 수직 테이퍼 또는 대형의 조합으로 더 잘 설명될 수 있음이 명백해진다.
도 3d 및 도 3e는 인위적 원근과 결합될 수 있는 다른 왜곡들을 나타내고 있다. 도 3d는 핀 쿠셔닝(pin cushioning)을 도시한 것이다. 핀 쿠셔닝의 반대는 평행선들이 이미지 중심에서 돌출해 있는 배럴링(barrelling)이다. 도 3e는 애너모픽(anamorphic) 왜곡; 가령, 4:3 스크린에 상영하기 위해 수평으로 16:9 이미지를 스퀴징한 것을 나타낸다. 이들 추가 왜곡들이 2D 이미지의 인위적 원근 변환에 대한 가상의 임의 조합에 추가될 수 있다.
도 3f는 깊이감을 향상시키기 위해 적용될 수 있는 다른 변환을 도시한 것이다. 이 도면에서 좌우 의사-3D 이미지 쌍(211,213)은 오프세트 거리(365) 만큼 떨어져 있다. 즉, 좌측 이미지(211)의 중심이 우측으로 이동되고 우측 이미지(213)의 중심이 좌측으로 이동된다. 실제로, 1920 픽셀 폭인 1080 HD 이미지에 대해 10에서 20 픽셀의 이동은 만족스럽게 보인다. 이동이 없는 디폴트 이외에, 본 출원인은 깊이감을 향상시키기 위해 이미지 폭의 좌우 이미지를 0.5% 내지 1% 또는 0.5% 내지 2%씩 떨어지게 움직이는 이동을 인위적 원근과 결합시키는 것을 개시하고 있다.
독자들은 궁극적으로 디스플레이되는 이미지가 일반적으로 크롭핑(cropping) 또는 오버스캔(overscan)에 의해 직사각형 프레임과 일치할 것임을 알아야 한다. 가령 원래 이미지를 보유한 프레임 크기와 같은 소정의 프레임 사이즈에 대해 왜곡된 이미지 또는 원래 이미지 프레임의 일그러져 보이는 왜곡된 버전에 적절한 크기로 맞추도록 줌기능이 적용될 수 있다.
도 4는 VC100의 블록도이다. 컨트롤 패널(410)은 로컬적으로 또는 원격으로 결합된 장치에 부착될 수 있다. 2개의 비디오 프로세싱 채널(420,450)이 입력 이미지를 처리해 동시에 2개의 왜곡된 출력 이미지를 만들 수 있다. 이 실시예의 비디오 프로세싱 채널은 입력 이미지(201)를 왜곡시키기 위해 비디오 프로세싱 엔진(421,451)에 의존한다. 이 장치는 오디오(440)와 광범위한 변환 포맷들을 동시에 처리한다. 100여 개의 포맷 변환 옵션들이 이 장치와 함께 표준이다. Teranex 웹사이트에서 식별되는 바와 같이 모두 300여 개의 포맷 옵션들이 이용가능하다. Teranex 웹사이트에서 Teranex사가 공개한 VC100 패밀리 사용자 매뉴얼의 2010년 11월15일자 및 2011년 1월28일자 버전이 본 명세서에 참조로 합체되어 있다.
도 5 내지 도 7 및 도 9는 개시된 기술의 적용을 나타낸 것이다. 도 5에 도시된 일련의 동작들은 이미지(201)를 수신하는 단계(512)와 이미지(201L,201R)를 복사하는 단계(522)를 포함한다. 2개의 프로세서들이 동시에 원래 2D 이미지(201)를 보유한 하나의 메모리 위치에 접속하게 하는 메모리 타입들이 이용가능하기 때문에 이미지 복사본을 만드는 단계는 선택이다. 다음 동작은 인위적 원근으로 의사-3D 이미지 쌍(211,212)을 준비하는 단계(532)이다. 선택적으로, 변환 파라미터들이 외부 소스로부터 수신될 수 있다. 도 7은 2D 이미지(201)와 함께 수신될 수 있는 파라미터를 준비하는 단계(512)를 아래에 도시하고 있다. 상술한 바와 같이, 한 쌍의 왜곡된 이미지가 나란히 또는 순차적으로 준비될 수 있다. 선택적으로, 하나 이상의 수직 대형보정, 핀 쿠셔닝, 배럴링, 애너모픽 왜곡 및 오프세트를 포함한 다른 변환들이 인위적 원근을 부과하기 위해 이미지(201)를 왜곡시키는 단계와 결합될 수 있다. 의사-3D 인위적 원근 이미지 쌍들은 다양한 미디어 소비자 및 저장장치에 나란히 또는 순차적으로 공급될 수 있다. 이미지 쌍들은 투사 시스템(523), 렌티큐럴 디스플레이(533) 또는 텔레비전(미도시)에 의해 즉시 이용될 수 있다. 이미지 쌍들은 나중에 이용하기 위해 저장될 수 있다. 현재 시스템에서, 이미지 쌍을 만드는 단계 다음에 전송이 위성을 통해 대기나, 인터넷이나 어떤 하이브리드 로컬 전달 시스템을 통해 케이블에 의한 것이든 간에 전송(553)하기 전에 인코딩(552)이 잇따를 수 있다. 인코딩 단계가 변환을 적용하는 단계에 바로 잇따를 수 있거나 미디어 아카이브(543)로부터 저장된 이미지들에 적용될 수 있다. 인코딩된 이미지들은 즉시 소비되거나 나중 배포를 위해 저장될 수 있다. IPTV, 인터넷 배포 및 스크린 크기가 다른 소비제품들에 사용되는 신생 HTTP 어댑티브 스트리밍 포맷에 따라 다양한 인코딩 이미지 크기들이 동시에 발생될 수 있다.
도 6은 왜곡 파라미터들이 장면에 따라 조절되는 워크플로우를 도시한 것이다. 이 워크플로우는 일련의 이미지들(201)을 수신하는 단계(612)를 포함할 것이다. 유입 이미지들의 세그먼트들 간에 컷(622)를 검출하기 위해 컷 검출기가 적용될 것이다. 가령, 표준 컷 검출기는 감독이 전체 룸 샷에서 한 배우에 대한 클로우즈업까지 가는 점을 감지할 것이다. 다음 동작은 컷들 간에 세그먼트에 대해 파라미터들(632)을 조절해 왜곡 파라미터들이 적절해지도록 하는 것일 수 있다. 파라미터들은 적어도 인위적 원근 정도를 포함한다. 수평축에 대한 인위적 원근 정도는 단일 파라미터로 표현될 수 있다.
가출원 제출 당시, 소위 -4에서 +4까지 스케일되는 강도 파라미터는 0에서 약 14도의 변환 각도에 해당하는 것으로 여겨졌다. 이런 소위 변환 각도측정은 대형변환(keystone transformation)으로 인해 발생한 테이퍼를 만드는 이미지 면의 상대 회전각(814)에 해당한다. 바람직하기로, 변환각(201 대 211, 213)은 약 1.7에서 12.2도의 범위내에 있다. 더 바람직하기로, 변환각은 3.4에서 10.4도의 범위내에 있다. 가장 바람직하기로, 변환각은 5.2에서 8.7도의 범위내에 있다. 그러나, 가출원은 또한 프로세서의 각 파라미터 처리가 명확히 문서화되지 않았기 때문에 본 출원인이 이들 값의 스케일링을 더 조사중인 것으로 나타내었다. 한층 더한 조사로 -4에서 +4 강도 파라미터 범위로 인해 발생한 변환각은 0에서 7.96도에 해당하는 것으로 결론내렸다. 따라서, 바람직한 변환각은 약 8/14만큼 리스케일되는 것일 것이다. 리스케일링으로, 변환각(201 대 211,213)은 약 1.0에서 7.0도의 범위내에 있을 수 있다. 더 바람직하기로, 변환각은 1.9에서 5.9도의 범위내에 있다. 가장 바람직하기로, 변환각은 3.0에서 5.0도의 범위내에 있다.
가출원의 제출에 연이은 연구에서, 강도 범위는 -40에서 +40으로 수정되었다. 0 강도에서, 워핑이 전혀 없을 것이다. -40에서, 변환각은 내부 에지가 변환 이미지 쌍의 외부 에지보다 더 짧은 8도이다. +40에서, 변환각도 또한 8도이나, 내부 에지는 외부 에지보다 더 길다. 몇몇 장면에서, 네거티브 변환각은 더 만족스럽다. 네거티브 변환 또는 보기 각도차가 이용된다면, 포지티브 변환보다 덜해지는 경향이 있다. 바람직한 네거티브 변환각은 -1.0에서 -3.0도 범위내에 있다. 더 바람직하기로 변환각은 -1.5에서 -2.5도 범위내에 있다.
이들 변환 범위는 많은 관객들이 보고 체험하면서 더 세련되어질 것이다.
리스케일링 후에, 가장 만족스러운 인위적 원근은 3배 회전각(814)까지 겉보기 회전을 수수하게 과장할 수 있다는 것이다.
이들 다른 변환 범위에 대한 바람직한 상황은 주관적이며 수천 시간 본 것이 아니라 수십 시간 본 후에 동료들과 상의해 본 발명자에 의해 선택되었다. 이들 범위는 프레임의 중심 부근에 그리고 배경보다 시청자에 더 가까이 주의의 초점을 둔 통상의 장면에 해당한다. 이런 통상의 장면 시나리오에 대해, 변환각은 도 8에서 각(814)에 대해 측정 또는 계산되는 것보다 더 크다. 다양한 장면 타입들에 대해 다른 변환각 범위들이 바람직할 수 있다.
보다 일반적으로, 변환 파라미터들은 원래 이미지로부터 발생된 다각형의 4개 코너로, 투사 변환(Leptonica)의 8개 파라미터로 또는 2D 이미지(201)를 인위적 원근 이미지(211,213)으로 맵핑시키는 일반 변환(US 6,520,647)의 9개 파라미터로 표현될 수 있다. 이는 내부 에지를 가로지르는 이미지 쌍의 대칭으로 인해 상보적 인위적 원근 이미지 쌍의 하나의 왜곡된 이미지(좌 또는 우)를 만드는데 필요한 파라미터들을 단지 특정해야만 할 필요가 있다.
선택적으로, 오프세트 파라미터(365)도 또한 발생될 수 있다. 오프세트 파라미터는 오프세트가 적용될 때 0.5 퍼센트에서 1.5 퍼센트까지의 범위일 수 있고 가령 떨어진 장면들에서처럼 상대적으로 약간 3D를 인식하는 몇몇 경우에는 0으로 설정될 수 있다.
추가 왜곡 파라미터들이 더 특정될 수 있다.
몇몇 실시예들에서, 컷 검출기가 제거될 수 있고 한 세트의 파라미터들이 2D 이미지(201)의 전체 세트에 할당될 수 있다.
도 6 및 도 7 간의 차이는 파라미터들이 바로 작용되거나 나중 사용을 위해 저장되는지 여부를 포함한다. 도 6에서, 선택적 복사 및 연이은 동작들(642, 652)은 도 5에 기술된 동작들(532,542,552)에 해당한다. 도 7에서는, 나중 변환을 위해 파라미터를 계산하고 저장하는 유용함이 있다.
자동포맷검출(Automatic Format Detection, AFD)용의 현재 MPEG-2 전송스트림 모델은 왜곡 파라미터들을 미디어 스트림의 스트림 컨트롤 정보에 끼워넣기 우한 모델로 이용된다. AFD 프로토콜은 "Digital Video Broadcasting (DVB); Implementation guidelines for the use of Video and Audio Coding in Broadcasting Applications based on the MPEG-2 Transport Stream."라는 제목의 참조문헌 ETSI TS 101 154 VI .7.1 (2005-06)의 부록 B에 설명되어 있다. 부록 B는 "이종 수신기 집단에 혼합된 포맷을 전달하는 네트워크에서의 사용" 을 위한 코딩을 설명한다. 코딩은 전송된 컨텐츠의 상태를 설명함으로써 비디오의 표현을 최적화하게 수신기를 지원한다. 코딩은 MPEG-2 전송스트림의 비디오 요소스트림의 사요자 데이터에 전달된다.
일반적으로, 3D 변환 데이터는 이미지 또는 비디오 데이터와 함께 전송스트림에 포함될 수 있다. 3D 변환 데이터는 적어도 인위적 원근 데이터 범위를 포함한다. 이는 선택적으로 이미지 오프세트 데이터를 포함한다. 변환각 파라미터로 또는 보다 일반적으로는 코너 대 코너 변환 맵핑 또는 선형 변환 매트릭스 계수들인 다각형 대 다각형 변환 파라미터들로 포함될 수 있다. 3D 변환 데이터는 이미지 시퀀스에 있는 컷들과 교환될 수 있다. 3D 변환 데이터는 키프레임과 같이 스트림 컨트롤 정보 또는 이미지 헤더에 포함될 수 있다.
도 9는 어떻게 의사-3D 이미지 쌍들이 2D 이미지로부터 수신기에 의해 구성될 것인지 기능적으로 판단하는 변환 파리미터 데이터(741)를 갖는 이미지 스트림(921)을 전송하는 것을 도시한 것이다. 상술한 전송 파라미터 데이터 중 어느 하나 또는 모두가 이미지 스트림(921)으로 전송될 수 있다. 변환 파라미터 데이터는 페이로드 이미지 데이터가 디스플레이되기 전에 수신장치에 의해 어떻게 왜곡될 것인지 기능적으로 판단하기 때문에 변환 파라미터 데이터의 기능은 미디어 스트림의 이미지 또는 오디오 컨텐츠와 다르다. 한 구성부품(911)은 이미지와 파라미터를 버퍼하며, 네트워크로부터 수신됨에 따라 컨텐츠의 저장 또는 재분배로 부터의 복구를 포함할 수 있다. 다음 구성부품(921)이 이들을 전송한다. 전송은 상술한 전송 미디어 중 어느 하나를 통해 될 수 있다. 전송은 예정되거나 요청시에 될 수 있다.
도 10은 본 명세서에 개시된 장치의 일부를 만들기 위한 다양한 방식들로 결합되는 블록다이어그램 프로세서 및 메모리 블록도들로 도시되어 있다. 입력 프로세서(1011) 또는 입출력 포트(미도시)는 외부 데이터 및 사용자들에 접속을 제공한다. 컷 검출 프로세서(1021)는 2D 이미지 스트림에서 장면들 간에 컷을 위치지정한다. 장면 프로세서(1031)는 자동으로 또는 반자동으로 2D 이미지를 의사-3D 이미지 쌍으로 변환하기 위한 파라미터들을 결정한다. 변환 프로세서에 실행되는 변환 파라미터(1041)와 로직은 적어도 상보적인 테이퍼들에 적용하고 좌우 인위적 원근 이미지 쌍들을 발생하기 위해 특별히 프로그램된 프로세서를 이용해 물리적 장면들을 재표현하는 2D 이미지들을 변환시킨다. 메모리(1012)는 프로세서의 동작을 지원한다. 이는 몇몇 실시예들에서 이들 프로세서 및 메모리가 하나의 칩에 결합될 수 있거나 하나의 FPGA 또는 도면에서 블록 개수로 표시된 것보다 소수의 별개의 장치들에 실행될 수 있음을 알아야 한다. 이미지 스트림(1032)은 이미지 스트림에 포함된 2D 입력 이미지(들) 및 파라미터들을 나타낸다. 파라미터들은 이미지 스트림 컨트롤 데이터로서 끼워지거나 이미지 스트림의 적어도 몇몇 이미지 프레임들의 이미지 헤더에 끼워질 수 있다.
도 11은 파라미터들이 끼워진 이미지 스트림을 송수신하는 송신기/수신기 쌍을 블록 다이어그램으로 도시한 것이다. 송신기 출력 프로레서(1101)는 통신 채널을 통해 이미지 스트림과 파라미터를 보낸다. 채널의 상세한 내용은 본 출원의 범위를 벗어난다. 통신은 일반적으로 패킷화되고 전자화될 것이다. 이는 유선 또눈 무선, 동기화 또는 비동기화, 순수 또는 하이브리드일 수 있다. 수신기 입력 프로세서(1103)는 송신기가 보낸 것을 수신하고 이를 (1041에 해당하는) 변환 프로세서(1103)로 보내어 적어도 상보적인 테이퍼들에 적용하여 좌우 인위적 원근 이미지 쌍들을 만들도록 특별히 프로그램된 프로세서들을 이용해 물리적 장면을 재표현하는 2D 이미지를 변환 시킨다.
도 12는 구식 타입이긴 하나 제조사의 물품으로 사용될 수 있는 한가지 타입의 비일시적 메모리를 나타낸다. 더 가능하게는, 제조사의 물품은 CD, DVD, 또는 고체상태 메모리일 수 있다. 이는 로컬 컴퓨터에 프로그램 명령을 다운로드함으로써 발생된 동적 메모리 또는 비휘발성(회전 또는 고체상태 메모리)일 수 있다.
몇몇 특정 실시예들
개시된 기술은 방법, 장치 또는 제조사의 물품으로서 실시될 수 있다. 개시된 기술은 컴퓨터를 이용해 2D 이미지를 해석하거나, 특정 파라미터 값들을 받아들이거나 변환 파라미터들을 판단해 물리적 대상물의 그림을 나타내는 디지털 데이터를 변환시키고, 인위적 원근으로 의사-3D 이미지 쌍들을 만들며, 의사-3D 이미지 쌍들을 입체로 상영하는 변환 파라미터들을 포함하는 디지털 데이터스트림을 전송하고 수신한다. 이런 면에서, 본 출원인은 일반적으로 다양한 컴퓨팅 플랫폼과 프로세서 스타일을 포함하도록 켬퓨터 용어를 이용한다. 핵심 특징은 컴퓨팅 자원들이 개시된 특정 용도로 프로그램된다는 것이다.
디지털 이미지의 조작 및 디지털 데이터스트림의 취급은 장치들의 사용을 필요로 한다. 컴퓨터와 사람 상호작용을 요구하는 이런 개시의 일부분은 특정 장면들에 대한 추천된 변환 파라미터들을 발생하는 피처(feature)를 설명하고, 사용자에 의한 리뷰를 위한 추천을 전송하며, 응답으로 파라미터 선택 메시지를 수신한다. 그와는 달리, 전반적으로 기술된 변환은 사용자 개입 없이 장치에 실행된다.
개시된 한가지 방법은 2D 이미지로부터 의사-3D 이미지 쌍을 준비하는 단계를 포함한다. 변환 동안, 2D 이미지(201)가 변환 프로세서에 접속할 수 있는 비일시적 메모리에 위치된다(512). ("비일시적"이라는 것은 단지 유선으로 전송중인 신호들을 제외하는 것을 말한다.) 2D 이미지는 휘발성 또는 비휘발성 메모리에 있을 수 있다. 휘발성 메모리는 온보드 메모리 또는 오프보드 메모리에 있을 수 있거나 메모리 셀, 버퍼 또는 레지스터일 수 있다. 비휘발성 메모리에서는, CD 또는 DVD와 같은 읽기전용 매체에 또는 읽기/쓰기 메모리에 있을 수 있다. 읽기/쓰기 메모리는 회전 또는 고체상태일 수 있다. 2D 이미지가 통신 채널을 통해 수신되면, 이들은 처리를 위해 메모리로 수신될 것이다(512).
이 방법은 상보적인 테이퍼 기능을 적용해 좌우 인위적 원근 이미지 쌍을 만들기 위해(532) 변환 프로세서를 이용해 2D 이미지를 변환하는 단계를 포함한다.
이 방법으로 이용될 수 있는 변환 프로세서의 예로는 SIMD 워프 엔진 프로세서, 그래픽 카드 또는 프로세서, 펜티엄 프로세서와 같은 ASIC, RISC 프로세서 또는 FPGA를 포함한다. 적절한 프로그램 명령과 프로세서 능력으로, 이들 및 유사한 프로세서들이 상보적 테이퍼 기능들을 적용할 수 있다.
상기 논의에서, 다각형 테이퍼 기능들의 3가지 예들, 즉, 대형보정, 매트릭스 변환 및 일반적인 왜곡 맵핑이 주어진다. 본 출원인은 구배진 테이퍼 기능(도 3c)을 적용하기 위해 일반적 왜곡 맵핑이 사용될 수 있음을 위에서 설명하였다.
상술한 바와 같이, 변환 프로세서는 상보적 테이퍼(211,213)으로 인위적 원근 이미지 쌍과, 선택적으로 좌우 이미지를 분리시키는 오프세트(365)를 발생한다.
본 출원인은 주관적으로 만족스러운 테이퍼 기능들이 좌우 이미지들 간의 차를 과장할 수 있음을 관찰했다. 가령, 특정 장면에 대해 좌안에 의해 보여지는 이미지 면이 우측 눈(814)에 의해 보여지는 이미지 면에 대해 2.2도만큼 회전하면, 과장된 3.0에서 5.0도의 상대 회전(814)과 같은 인위적 원근을 부과하는 것이 주관적으로 만족스러울 수 있다.
이 방법은 이전 또는 연이은 이미지들로부터 정보 없이 단일 이미지에 수행될 수 있음을 주목하는 것이 가치 있다. 이는 2D 이미지로부터 대상물의 추출 또는 상기 이미지에 대한 깊이 맵의 계산을 필요로 하지 않는다. 이 깊이 맵 프로세싱이 필요로 하지 않는 반면, 개시된 기술은 종래 깊이 맵핑 발생 및 종래 2D 대 3D 변환과 조합해 이용될 가능성이 있다.
좌우 인위적 원근 이미지 쌍들의 발생은 이미지 쌍들이 저장되거나(543) 즉시 사용되는(523,533,553)에 무관하게 그리고 이미지 쌍들이 바로 사용되거나 전송스트림(553)에 사용되도록 인코딩(552)되는지에 무관하게 그 자체로 유용함을 갖는다. 의사-3D 인위적 원근 이미지 쌍들은 변환 프로세서(532)에 의해 출력으로 또는 인코딩(552) 후 연이은 전송(553)을 위해 하나 이상의 포맷들로 저장될 수 있다. 몇몇 시스템에서, 이미지 쌍들은 이미지 쌍을 다수의 다른 포맷들로 동시에 변환시키는 인코딩 프로세서를 통해 파이프라인될 수 있다. 의사-3D 이미지에 대한 다수의 즉시적 사용을 앞서 언급하였다.
이 방법의 일태양에 따르면, 인위적 원근 이미지들은 외부 에지보다 더 큰 내부 에지(212)를 가질 수 있다.
이 방법과 함게 변환 프로세서의 동작을 조절하기 위해 인위적 원근 파라미터(741)가 이용될 수 있다. 인위적 원근 파라미터는 상보적 테이퍼 기능들이 어떻게 적용되는지를 나타낼 것이다. 인위적 원근 파라미터의 일예는 좌 또는 우, 또는 둘다의 인위적 원근 이미지에 대한 적어도 하나의 투사면의 y축 주위로 회전(814)을 표현하는 각도 파라미터이다. 이 파라미터에 대한 적절한 값들이 위에서 제시되었다. 인위적 원근 파라미터의 또 다른 예는 2D 이미지의 코너들이 되어야 하는 곳을 지정하는 좌표 세트이다. 이는 대형보정을 고려한 일반적인 방법이다: 2D 이미지의 코너들(ABCD)이 이미지 쌍에 있는 한 이미지의 코너들(A'B'C'D')로 맵핑되고 상보적인 맵핑이 다른 이미지들에 적용된다. 매트릭스 파라미터들에 코너 맵핑을 변환하기 위한 선형대수가 인용된 간행물중 일부에 제시되어 있다. 또 다른 예에서, 인위적 원근 파라미터는 일반적인 왜곡 맵일 수 있다. 각도 또는 4개 코너 좌료로 인위적 원근 파라미터를 표현하는 것은 다항계수 세트보다 훨씬 더 간결하다. 일반적으로, "간결한" 인위적 원근 파라미터는 2D 이미지를 인위적 원근 이미지로 변환하기 위해 9개 값 이하를 가질 수 있다. 추가로 9개 또는 그보다 적은 값들이 제 2 이미지를 만드는 상보적 변환을 위해 제공될 수 있거나, 제 2 세트의 값들이 제 1 세트로부터 도출될 수 있다.
상술한 방법은 도 3f에 도시된 바와 같이, 좌측 이미지를 좌로 우측 이미지를 우로 오프세트시키기 위해 인위적 원근 이미지 쌍을 이동(369)시킴으로써 선택적으로 강화될 수 있다. 오프세트 파라미터(365)는 이동 정도를 판단하기 위해 변환 프로세서에 의해 이용될 수 있다. 오프세트 파라미터의 바람직한 범위는 앞서 설명되었다.
의사-3D 인위적 원근 이미지 쌍들을 만드는 것은 일반적으로 직사각형 이미지를 사다리꼴(영국식 영어로 사다리꼴(trapazium))로 변환하는 것을 포함한다. 관객과 전자처리 장비 모두가 직사각형 프레임에 있는 이미지들을 예상한다. 따라서, 디스플레이, 저장, 인코딩 또는 전송을 위해 인위적 원근 이미지 쌍을 준비할 때 클립핑 또는 주밍(zooming) 및 클립핑이 유용하다.
상기 이미지 변환 방법, 그 방법의 변형 및 태양들은 2D 이미지를 의사-3D 이미지 쌍으로 변환하기 위한 파라미터를 조절하는 도 6에 도시된 장면 적용과 쉽게 결합될 수 있다. 텔레비전 프로그램, 영화 및 기타 미디어는 일련의 장면을 나타낸다. 그 미디어를 한 장면에서 또 다른 장면까지의 "컷"이라 한다. 변환과 결합된 장면 적용은 장면들 간의 컷(622)을 검출하고, 다양한 장면들에 적절한 변환 파라미터들(632)을 적용하고, 적용된 파라미터들을 이용해 장면들에 대해 의사-3D 이미지 쌍(652)을 발생하는 것을 포함한다.
상술한 변환 방법과 결합시 더 상세하게 표현된 장면 적용은 컷 검출 프로세서에 접속될 수 있는 메모리에 있는 2D 이미지(612)의 스트림을 처리하는 것을 포함한다. 컷(622)의 맞은편에 있는 연속 2D 이미지들은 다른 장면들의 일부이다. 장면마다 적어도 한번, 장면 프로세서는 적어도 하나의 인위적 원근 파라미터를 판단하고 장면에 할당(632)한다. 물론, 장면 프로세서는 선택적으로 오프세트 파라미터를 할당할 수 있다. 변환 프로세서가 특정 2D 이미지를 변환할 때(652), 이는 장면 프로세서에 의해 할당된 파라미터를 이용한다.
장면 프로세서는 자동으로 또는 반자동으로 동작될 수 있다. 자동 프로세싱 모드에서, 동일한 프로세서는 사용자 개입 없이 장면 변화시에 인위적 원근 파라미터를 판단하고 선택적으로 오프세트 파라미터를 판단한다. 반자동 방법에서, 장면 프로세서는 적어도 몇몇 장면에서 하나 이상의 추천 파라미터를 발생하고, 추천 파라미터를 전송하며 응답으로 선택된 파라미터 메시지를 수신하고, 선택된 파라미터 메시지를 기초로 장면에 파라미터를 할당한다. 반자동 프로세스는 대부분의 장면들에 대해 자동으로 동작되며 가령 매크로 클로즈업(macro closeups) 또는 역(逆) 인위적 원근과 같이 극한의 경우들에 대해서만 추천을 할 수 있다. 기설정된 임계치들이 왜곡, 회전 또는 테이퍼의 정상 범위들을 결정하고 장면의 임계치 또는 특정 분류들을 벗어나 있는 파라미터 값들에 대한 추천 및 응답을 제한하도록 설정될 수 있다. 일반적으로, 장면 적용은 즉시 2D 이미지스트림을 디스플레이하지 않고도 상기 2D 이미지스트림에 대한 파라미터들을 설정하는데 사용될 수 있다.
장면 프로세서는 직접 파라미터를 할당할 수 있거나 파라미터의 할당을 연기하는 식으로 장면을 분류할 수 있다. 가령, 프레임의 중간부에 있는 컨텐츠(가령, 프레임의 가운데 세번째)가 전경 또는 배경에 있는지 여부에 의해 장면을 분류할 수 있다. 전경에 있는 대상물들이 얼마나 가까운지에 의해 장면을 분류할 수 있다. 장면 도처에서 프레임의 중심을 분석할 수 있어, 떨어진 배경에 대해 전경에 나타난 대상물은 장면이 분류되는 방식을 바꾸지 않는다.
장면 적용의 다른 사용은 나중에 또는 원격 변환 프로세서에 의해 2D 이미지 스트림으로부터 의사-3D 이미지 쌍의 발생을 컨트롤하기 위해 하나 이상의 변환 파라미터들을 결정하는 방법이다. 이 방법은 컷 검출 프로세서에 접근할 수 있는 메모리에 2D 이미지(201)의 스트림을 수신하는 단계(712)를 포함한다. 컷 검출 프로세서는 상술한 바와 같이 컷(722)을 검출한다. 장면 프로세서는 어떻게 변환 프로세서가 좌우 인위적 원근 이미지 쌍들, 의사-3D 이미지들을 발생하기 위해 2D 이미지를 변환하는지 특정하는 2D 이미지 스트림내에 있는 장면들에 대해 파라미터(732)를 판단 및 할당한다. 할당된 파라미터는 적어도 하나의 인위적 원근 파라미터를 포함하고 선택적으로 오프세트 파라미터를 포함할 수 있다.
상술한 바와 같이, 장면 프로세서는 자동으로 또는 반자동으로 장면 적용을 결정할 수 있다.
장면에 대한 파라미터를 할당하는 단계(742)의 결과가 테이블에 저장 또는 미디어에 끼워 넣어질 수 있다. 가령, 이 방법은 2D 이미지 스트림과 관련된 이미지 스트림 컨트롤 데이터에 하나 이상의 파라미터들(741)을 끼워넣는 단계를 포함할 수 있다. MPEG-2 전송스트림에서, 사용자 필드가 적절할 것이다. 대안으로, 이 전송 표준은 수정될 수 있거나 전송스트림에 의해 운반되는 이미지들에 대한 관련된 표준들이 파라미터 필드들을 추가하도록 변경될 수 있다. 상기 방법은 스트림 컨트롤 데이터에 있는 파라미터들 대신 또는 이외에 2D 이미지 스트림내에 있는 개개의 이미지들에 대해 이미지 헤더 데이터에 있는 파라미터들을 끼워넣는 단계들을 포함할 수 있다. 키프레임과과 차이 프레임 모두를 포함하는 이미지 스트림에서, 파라미터는 바람직하게는 키프레임의 적어도 일부의 헤더에 두어질 것이다. 따라서, 장면 적용방법은 어떻게 파라미터들이 상관되는지에 무관하게 2D 이미지 스트림에서 장면에 할당되거나 끼워지는 유용함을 갖는다. 장면 적용방법은 실제로 변환된 의사-3D 이미지를 디스플레이할 필요가 전혀 없는 유용함을 갖는다; 변환(가령, 536,652)은 상당히 지연될 수 있고 다른 당사자나 다른 국가에 의해 수행될 수 있다.
나중 변환을 위한 장면 적용에 대한 결과는 2D 이미지와 의사-3D 이미지 쌍에 돌려주기 위한 컨트롤 정보를 수신하는 방법이다. 이 방법은 적어도 하나의 인위적 원근 파라미터를 포함하는 2D 이미지들의 스트림을 수신하는 단계(512)를 포함한다. 전반적으로 기술된 바와 같이, 인위적 원근 파라미터는 어떻게 상보적 테이퍼 기능들이 변환 프로세서에 의해 스트림에 있는 2D 이미지를 변환시켜 좌우 인위적 원근 이미지 쌍들을 만들도록 적용될 수 있는지 명시한다. 선택적으로, 상기 방법은 인위적 원근 파라미터에 응답해 수신시 2D 이미지를 변환시키고(532) 좌우 인위적 원근 이미지 쌍들을 만드는 변환 프로세서를 이용하는 것을 더 포함한다.
상술한 바와 같이, 인위적 원근 파라미터(741)는 2D 이미지 스트림에 있는 적어도 몇몇의 장면 변화들로 바꿔질 수 있다. 변경 파라미터에 응답해 의사-3D 이미지(532)를 만듦으로써 수신 방법은 확장된다.
상기 방법은 수신에 의해 그런 후 오프세트 파라미터를 적용함으로써 더 확장될 수 있다.
상기 방법은 변환 파라미터를 검색하도록 수신된 데이터를 구문분석하는 단계를 더 포함할 수 있다. 일실시예에서, 상기 방법은 파라미터를 찾기 위해 이미지 스트림 컨트롤 데이터로부터 구문분석하는 단계를 포함한다. 또 다른 실시예에서, 상기 방법은 파라미터를 찾기 위해 적어도 몇몇 이미지 데이터 프레임들의 이미지 헤더를 구문분석하는 단계를 포함한다.
모든 수신 방법에 대해, 전송방법이 있다. 여기서, 전송방법은 적어도 하나의 인위적 원근 파라미터(741)를 포함한 2D 이미지(553)의 스트림을 전송하는 단계(921)를 포함하며, 인위적 원근 파라미터는 어떻게 하나 이상의 상보적 테이퍼 기능들이 변환 프로세서에 의해 적용될 수 있는지를 명시한다. 변환 프로세서 행동은 프로세서가 2D 이미지를 좌우 인위적 원근 이미지 쌍들로 변환시키는 방법을 말하는 인위적 원근 파라미터에 의해 결정된다.
전송방법은 변경된 인위적 원근 파라미터를 전송함으로써 확장될 수 있다.
전송방법은 또한 변경될 수 있는 이미지 스트림에서 하나 이상의 오프세트 파라미터(365)를 포함함으로써 또한 확장될 수 있다.
상술한 바와 같이, 전송방법은 이미지 스트림내 적어도 몇몇 이미지 데이터 프레임들의 헤더 또는 이미지 스트림 컨트롤 데이터에 있는 컨트롤 정보를 끼워넣을 수 있다.
재생시키기 위해, 특정 방법의 실시예들은 2D 이미지로부터 의사-3D 이미지 쌍을 분비하는 방법 및 상기 방법에 대한 변경들; 장면 적용을 위해 변환 파라미터들을 발생하는 방법 및 변경들; 및 2D 이미지 스트림과 인위적 원근 변환 파라미터들을 결합하는 수신기 및 송신기 방법을 포함한다. 이들 방법들과 이들 방법들에 대한 변경들 각각에 대해, 필연적 결과의 장치들이 있다.
개시된 한가지 장치는 2D 이미지로부터 의사-3D 이미지 쌍을 준비하는 것이다. 이 장치는 메모리(1012), 변환 프로세서(1041), 및 변환 프로세서를 실행하는 로직을 포함한다. 변환 프로세서는 메모리에 결합된다. 메모리에 2D 이미지를 부과하고 2D 이미지에 대한 상보적 테이퍼 기능을 적용해 좌우 인위적 원근 이미지 쌍을 만든다.
상기 방법과 관련해 상술한 바와 같이, 메모리는 휘발성 또는 비휘발성일 수 있고, 온보드 또는 오프보드 변환 프로세서일 수 있으며, 회전 또는 고체상태일 수 있다. 이는 메모리, 버퍼 또는 레지스터로서 다양하게 특징될 수 있다. 변환 프로세서의 예는 Realta 그래픽 프로세서, Nvidia 그래픽 카드 또는 프로세서, 펜티엄 프로세서와 같은 ASIC, RISC 프로세서 또는 FPGA를 포함한다. 적절한 프로그램 명령어 및 프로세서 능력으로, 이들 및 유사한 프로세서들이 장치의 적절한 구성요소들이게 된다.
변환 프로세서에 실행되는 로직에 의해 구현될 수 있는 테이퍼 기능들의 3가지 예들은 대형보정, 일반 매트릭스 변환, 및 일반 왜곡 맵핑을 포함한다. 다시, 본 출원인은 구배진 테이퍼 기능을 적용하기 위해 일반 왜곡 맵핑이 사용될 수 있음을 설명하였다.
대부분의 환경에서, 이 장치는 내부 에지(212)와 외부 에지를 각각 갖고 외부 에지보다 내부 에지가 더 큰 좌우 인위적 원근 이미지(211,213)를 만든다. 이는 상술한 바와 같이 몇가지 예외일 수 있으나, 상보적 전달 기능들에 대한 일반적인 특징이다.
이 장치는 선택적으로 변환 프로세서에 접근할 수 있는 인위적 원근(FP) 파라미터 메모리(1012)를 가질 수 있다. 이 파라미터 메모리가 이용가능할 경우, 정보 파라미터(1041)는 이 메모리에서의 값에 응답해 상보적인 테이퍼 기능을 적용한다.
각도 파라미터, 코너 맵핑 좌표, 또는 일반 왜곡 맵을 포함한 인위적 원근 파라미터 값들의 몇가지 타입들이 이용될 수 있다. 상술한 바와 같이, 각도 파라미터는 좌 및/또는 우 인위적 원근 이미지의 적어도 하나의 투사면의 y축(814) 주위로 회전을 나타낸다. 각도 파라미터의 바람직한 범위들이 상술되었다. 각도 파라미터는 시청자의 눈들 간의 실제 시차를 과장할 수 있다. 대안으로, 코너 맵핑 좌표 세트가 제공될 수 있으며, 이는 변환 매트릭스에 대해 대수학적으로 8개 또는 9개 매트릭스 파라미터들과 같다. 가장 일반적으로는, 참고문헌의 특허들 중 일부에 기술된 바와 같이 일반 왜곡 맵을 이용해 상보적인 테이퍼 기능들이 표현될 수 있다. 바람직하기로, 2D 이미지에 인위적 원근을 부여하는 것을 기술하기 위해 9개 또는 8개 이하의 파라미터들로 인위적 원근 파라미터 값들의 간결한 세트가 이용된다.
이 장치는 변환 프로세서(1041)에 접근될 수 있는 오프세트 파라미터 메모리(1012)를 더 포함할 수 있다. 이 변형에서, 변환 프로세서에 실행되는 로직은 오프세트 파라미터 메모리에 있는 값에 응답해 오프세트를 적용한다. 오프세트 파라미터 값들에 대한 바람직한 범위들이 상술되었다.
이 장치는 의사-3D 이미지를 클립하고 의사-3D 이미지를 줌하거나 상기 이미지를 줌 또는 클립하는 변환 프로세서(1041)에 실행되는 로직을 더 포함할 수 있다.
3D 이미지는 기설정된 종횡비로 클립될 수 있다.
이 장치는 제 2 메모리(1012), 입력 프로세서(1011), 컷 검출기(1021) 및 장면 프로세서(1031)로 확장될 수 있다. 입력 프로세서는 제 2 메모리에 결합된다. 2D 이미지(1032)의 스트림을 수신하고 이들을 제 2 메모리(1012)에 공급한다. 컷 검출 프로세서(1021)도 또한 제 2 메모리에 결합된다. 이는 장면들 간의 2D 이미지 스트림에서 컷을 검출한다. 장면 프로세서(1031)는 컷 검출 프로세서에 결합된다. 각 장면에 대해 적어도 한번, 장면 프로세서는 스트림에 적용될 수 있는 인위적 원근 파라미터 값을 판단한다. 이는 상황에 따라 인위적 원근 파라미터 값을 설정하거나 불변인 채로 남긴다. 변환장치가 장면 프로세서(1031)로 확장되면, 변환 프로세서(1041)는 장면 프로세서에 의해 할당된 인위적 원근 파라미터 값(1012)를 이용해 반복적으로 2D 이미지(1032)를 처리한다.
장면 프로세서는 자동으로 또는 반자동으로 동작될 수 있다. 반자동 장면 프로세서는 사용자와 통신하기 위해 입출력 포트에 결합된다. 이 실시예에서, 장면 프로세서는 적어도 몇몇 장면들에 대해 하나 이상의 인위적 원근 파라미터 값을 발생한다. 이는 출력 포트를 통해 전송을 위한 추천 값을 보낸다. 이는 추천에 응답해 입력포트를 통해 선택된 파라미터 메시지를 수신한다. 이는 선택된 파라미터 메시지에 응답해 제 2 메모리에 선택된 인위적 원근 파라미터 값을 제공한다.
상기 방법과 관련해 기술된 바와 같이, 반자동 모드로 동작하는 장면 프로세서는 하나 이상의 임계 파라미터 메모리들을 더 포함할 수 있다. 장면 프로세서는 임계 파라미터 밖에 있는 경우들에 대해 추천을 할 수 있다. 임계치는 왜곡, 회전 또는 테이퍼의 정상 범위를 정의하고 임계치 밖에 있는 장면들에 추천 및 응답 프로토콜의 사용을 제한할 수 있다.
보다 일반적으로, 장면 프로세서는 인위적 원근 파라미터 값과 오프세트 파라미터 값 모두를 판단할 수 있다. 양 값들이 이들 각각의 파라미터 메모리에 할당되면, 변환 프로세서는 이들을 이용해 2D 이미지를 의사-3D 이미지 쌍으로 변환시킨다.
장면 프로세서는 인위적 원근 파라미터 값 이외에 오프세트 파라미터 값 발생시 자동으로 또는 반자동으로 동작할 수 있다.
장면 프로세서는 로컬 변환 프로세서와 결합되지 않더라도 유용한 장치이다. 본 출원인은 2D 이미지 스트림으로부터 의사-3D 이미지 쌍을 만드는 원격 변환 프로세서를 제어하기 위해 하나 이상의 변환 파라미터들을 결정하는 장치를 개시한다. 이 장치는 메모리(1012), 입력 프로세서(1021), 컷 검출 프로세서(1021), 및 장면 프로세서(1031)를 포함한다. 입력 프로세서는 2D 이미지(1032) 스트림을 수신하고 2D 이미지를 메모리(1012)에 제공한다. 컷 검출 프로세서(1021)도 또한 메모리에 결합된다. 이는 장면이 변함에 따라 2D 이미지 스트림에 있는 컷을 검출한다. 각 장면에 대해 적어도 한번, 어떻게 원격 변환 프로세서가 상보적인 테이퍼 기능을 적용해 장면내 2D 이미지를 변환시켜 좌우 인위적 원근 이미지 쌍들을 발생시켜야 하는지 명시한 인위적 원근 파라미터 값을 판단한다. 어느 한 경우, 상황에 따라 메모리에 이 값을 설정하거나 불변인 채로 남겨둔다.
상술한 바와 같이, 장면 프로세서는 자동 또는 반자동 모드로 동작될 수 있다. 독자는 상기 설명들이 본 명세서에 다시 적용되며 반복될 필요가 없음을 알아야 한다.
이미지 스트림 프로세서(미도시)는 장면 프로세서에 결합되어 이미지 스트림 컨트롤 데이터에 또는 적어도 일부 이미지 데이터 프레임에 대해 이미지 헤더 데이터에 인위적 원근 파라미터 값을 끼워넣을 수 있다. 이러한 끼워넣음이 상술되었다.
인위적 원근 파라미터 값을 판단하고 설정하거나 메모리에 불변인 채로 남겨두는 것 이외에, 장면 프로세서(1031)는 오프세트 파라미터 값을 발생할 수 있다. 오프세트 파라미터 값은 원격 변환 프로세서에 의해 적용되도록 좌측 이미지르 좌로 우측 이미지를 우로의 이동을 명시한다. 이 파라미터는 자동으로 또는 반자동으로 결정될 수 있다. 이는 이미지 스트림 컨트롤 데이터에 또는 적어도 몇몇 이미지 데이터 프레임에 대해 이미지 헤더 데이터에 끼워넣어질 수 있다(1032).
한 쌍의 추가 장치들은 수신기 및 송신기 장치들이다. 수신기 장치(1101)는 의사-3D 이미지 쌍들을 돌려주기 위해 2D 이미지 및 컨트롤 정보를 수신한다. 이는 메모리, 입력 프로세서(1103), 변환 프로세서(1105) 및 변환 프로세서에서 실행되는 로직을 포함한다. 입력 프로세서는 2D 이미지의 스트림과 하나 이상의 인위적 원근 파라미터 값들을 수신하고 이들을 메모리에 제공한다. 인위적 원근 파라미터 값들은 어떻게 변환 프로세서가 상보적인 테이퍼 기능들을 적용해 스트림내 2D 이미지들을 변환시켜 좌우 인위적 원근 이미지 쌍들을 만드는지를 명시한다. 이는 장면들 간에 변할 수 있거나 전체 장면들에 대해 설정될 수 있다. 변환 프로세서상에 실행되는 로직은 메모리내 2D 이미지에 접속해 인위적 원근 파라미터 값들에 응답해 2D 이미지에 접근한다. 이는 의사-3D 이미지 쌍들을 발생한다.
수신기 장치는 오프세트 파라미터 값들을 수신하고 메모리에 이들을 제공하는 입력 프로세서(1103)로 확장될 수 있다. 이 변형에서, 변환 프로세서상에 실행되는 로직은 오프세트 파라미터 값들에 응답해 2D 이미지들에 이미지 시프터(image shifter)를 더 적용한다.
다른 태양으로서, 변환 파라미터들(741)이 이미지 스트림 컨트롤 정보에 전달되는 경우, 입력 프로세서(1103)는 이미지 스트림 컨트롤 정보를 구문분석해 파라미터를 위치지정한다. 대안으로, 변환 파리미터가 이미지 프레임 헤더 데이터에 전달되는 경우, 변환 프로세서(1105) 또는 입력 프로세서(1103)가 이미지 헤더를 구문분석해 변환 파리미터 값을 위치지정한다.
수신기 장치의 상대편인 송신기 장치는 원격 변환 프로세서에 의해 의사-3D 이미자 쌍들을 돌려주기 위해 2D 이미지 및 컨트롤 정보를 전송한다. 이 장치는 메모리와 상기 메모리에 결합되는 출력 프로세서(1101)를 포함한다. 출력 프로세서는 하나 이상의 인위적 원근 파라미터 값들(741)과 함께 2D 이미지 스트림을 전송한다. 다시, 인위적 원근 파라미터 값들은 스트림내 2D 이미지를 변환시키고 좌우 인위적 원근 이미지를 발생시키기 위해 어떻게 상보적인 테이퍼 기능들이 원격 변환 프로세서에 의해 적용될 수 있는지를 명시한다.
송신기 장치의 출력 프로세서(1101)는 2D 이미지 스트림과 함께 하나 이상의 오프세트 파라미터 값을 더 전송할 수 있다.
송신기 장치는 출력 프로세서에 결합되는 인코딩 프로세서(미도시)로 확장될 수 있다. 인코딩 프로세서는 2D 이미지내 스트림내 컨트롤 정보로서 또는 2D 이미지내 스트림내 적어도 몇몇 이미지 프레임들에 있는 이미지 헤더 데이터로서 인위적 원근 파라미터 값들을 끼워넣는다.
방법 및 장치 이외에, 개시된 기술은 제조사의 물품에, 소위 매체 청구항(Beauregard claim)으로 구현될 수 있다. 일실시예로, 제조사의 물품(도 12)은 메모리에 결합된 하나 이상의 프로세서들에 실행될 때, 이 특정 실시예 부분에서 설명된 방법들 또는 먼저 행한 개시들 중 어느 하나를 실행하는 비일시적 메모리에 프로그램 명령어를 포함한다.
또 다른 실시예에서, 제조업체의 물품(도 12)은 메모리와 하나 이상의 프로세서들을 갖는 장치와 결합될 경우, 이 특정 실시예 부분에서 설명된 특수 프로그램된 장치들 또는 먼저 행한 개시들 중 어느 하나를 만드는 비일시적 메모리에 프로그램 명령어를 포함한다.
개시된 기술은 하기의 특허청구범위에 더 기술되어 있다.
독자는 기술된 방법, 장치 및 제조사의 물품들의 특징 및 태양들이 모두가 개시된 발명으로서 다양한 조합 및 서브조합을 만드는 많은 방식으로 결합될 수 있음을 알아야 한다.

Claims (41)

  1. 변환 프로세서에 접근할 수 있는 비일시적 메모리에 위치된 2D 이미지로부터 의사-3D 이미지 쌍을 준비하는 방법으로서,
    상보적인 테이퍼 기능을 적용하여 좌우 인위적 원근 이미지 쌍을 만들도록 변환 프로세서를 이용한 2D 이미지를 변환하는 단계를 포함하는 의사-3D 이미지 쌍을 준비하는 방법.
  2. 제 1 항에 있어서,
    쌍으로 좌우 인위적 원근 이미지들 각각은 외부 에지보다 큰 내부 에지를 갖는 의사-3D 이미지 쌍을 준비하는 방법.
  3. 제 1 항에 있어서,
    쌍으로 좌우 인위적 원근 이미지들 각각은 외부 에지보다 짧은 내부 에지를 갖는 의사-3D 이미지 쌍을 준비하는 방법.
  4. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
    변환하는 단계는 어떻게 상보적 테이퍼 기능들이 적용되는지를 나타내는 변환 프로세서에 의해 사용되는 적어도 하나의 인위적 원근 파마미터에 응답하는 의사-3D 이미지 쌍을 준비하는 방법.
  5. 제 4 항에 있어서,
    인위적 원근 파라미터는 좌 또는 우 인위적 원근 이미지에 대해 적어도 하나의 투사면의 y축 주위로 회전을 표현한 각도 파라미터인 의사-3D 이미지 쌍을 준비하는 방법.
  6. 제 5 항에 있어서,
    인위적 원근 파라미터는 약 -1.0에서 -3.0도 범위에 있는 좌우 인위적 원근 이미지들의 y축 주위로 상대 회전을 특정하는 의사-3D 이미지 쌍을 준비하는 방법.
  7. 제 4 항에 있어서,
    인위적 원근 파라미터는 2D 이미지의 코너들이 변환 이미지에서 되어야 하는 곳을 명시한 코너 맵핑 좌표 세트인 의사-3D 이미지 쌍을 준비하는 방법.
  8. 제 1 항 내지 제 7 항 중 어느 한 항에 있어서,
    변환하는 단계는 변환 프로세서에 의해 사용된 오프세트 파라미터에 응답해 좌측 이미지를 좌로 우측 이미지를 우로 오프세트 시키도록 인위적 원근 이미지 쌍을 이동시키는 단계를 더 포함하는 의사-3D 이미지 쌍을 준비하는 방법.
  9. 제 1 항에 있어서,
    변환하는 단계는 변환 프로세서에 의해 사용된 오프세트 파라미터에 응답해 좌측 이미지를 좌로 우측 이미지를 우로 오프세트 시키도록 인위적 원근 이미지 쌍을 이동시키는 단계를 더 포함하는 의사-3D 이미지 쌍을 준비하는 방법.
  10. 제 8 항에 있어서,
    오프세트 파라미터는 2D 이미지 폭의 약 0.5에서 1.5 퍼센트 범위 내에서 좌우 인위적 원근 이미지의 오프세트를 명시하는 의사-3D 이미지 쌍을 준비하는 방법.
  11. 제 9 항에 있어서,
    오프세트 파라미터는 2D 이미지 폭의 약 0.5에서 1.5 퍼센트 범위 내에서 좌우 인위적 원근 이미지의 오프세트를 명시하는 의사-3D 이미지 쌍을 준비하는 방법.
  12. 제 4 항 내지 제 7 항 중 어느 한 항에 있어서,
    컷 검출 프로세서에 접근할 수 있는 제 2 메모리에 2D 이미지 스트림을 수신하는 단계;
    컷 검출 프로세서를 이용해 연속 2D 이미지들이 다른 장면을 나타내는 스트림에서 컷을 검출하는 단계;
    각 장면에 대해 적어도 한번, 적어도 인위적 원근 파라미터를 판단하고 장면에 할당하도록 장면 프로세서를 이용하는 단계; 및
    인위적 원근 파라미터를 이용해 2D 이미지 스트림으로부터 좌우 인위적 원근 이미지 쌍을 발생하도록 제 4 항의 방법을 반복적으로 적용하는 단계를 더 포함하는 장면 적용에 이용되는 의사-3D 이미지 쌍을 준비하는 방법.
  13. 제 4 항에 있어서,
    컷 검출 프로세서에 접근할 수 있는 제 2 메모리에 2D 이미지 스트림을 수신하는 단계;
    컷 검출 프로세서를 이용해 연속 2D 이미지들이 다른 장면을 나타내는 스트림에서 컷을 검출하는 단계;
    각 장면에 대해 적어도 한번, 적어도 인위적 원근 파라미터를 판단하고 장면에 할당하도록 장면 프로세서를 이용하는 단계; 및
    인위적 원근 파라미터를 이용해 2D 이미지 스트림으로부터 좌우 인위적 원근 이미지 쌍을 발생하도록 제 4 항의 방법을 반복적으로 적용하는 단계를 더 포함하는 장면 적용에 이용되는 의사-3D 이미지 쌍을 준비하는 방법.
  14. 제 12 항에 있어서,
    장면 프로세서는 장면 변경시 사용자 개입 없이 인위적 원근 파라미터를 자동으로 판단하는 의사-3D 이미지 쌍을 준비하는 방법.
  15. 제 13 항에 있어서,
    장면 프로세서는 장면 변경시 사용자 개입 없이 인위적 원근 파라미터를 자동으로 판단하는 의사-3D 이미지 쌍을 준비하는 방법.
  16. 제 12 항에 있어서,
    장면 프로세서는 적어도 몇몇 장면들에 대해 하나 이상의 추천된 인위적 원근 파라미터들을 발생하고, 상기 추천된 인위적 원근 파라미터들을 전송하며, 선택된 파라미터 메시지를 수신하고, 상기 선택된 파라미터 메시지에 응답해 인위적 원근 파라미터를 할당하는 의사-3D 이미지 쌍을 준비하는 방법.
  17. 제 13 항에 있어서,
    장면 프로세서는 적어도 몇몇 장면들에 대해 하나 이상의 추천된 인위적 원근 파라미터들을 발생하고, 상기 추천된 인위적 원근 파라미터들을 전송하며, 선택된 파라미터 메시지를 수신하고, 상기 선택된 파라미터 메시지에 응답해 인위적 원근 파라미터를 할당하는 의사-3D 이미지 쌍을 준비하는 방법.
  18. 제 9 항 또는 제 10 항에 있어서,
    컷 검출 프로세서에 접근할 수 있는 제 2 메모리에 2D 이미지 스트림을 수신하는 단계;
    컷 검출 프로세서를 이용해 연속 2D 이미지들이 다른 장면을 나타내는 스트림에서 컷을 검출하는 단계;
    각 장면에 대해 적어도 한번, 적어도 인위적 원근 파라미터와 오프세트 파라미터를 판단하고 장면에 할당하도록 장면 프로세서를 이용하는 단계; 및
    인위적 원근 파라미터와 오프세트 파라미터를 이용해 2D 이미지 스트림으로부터 좌우 인위적 원근 이미지 쌍을 발생하도록 제 8 항의 방법을 반복적으로 적용하는 단계를 더 포함하는 장면 적용에 이용되는 의사-3D 이미지 쌍을 준비하는 방법.
  19. 제 9 항에 있어서,
    컷 검출 프로세서에 접근할 수 있는 제 2 메모리에 2D 이미지 스트림을 수신하는 단계;
    컷 검출 프로세서를 이용해 연속 2D 이미지들이 다른 장면을 나타내는 스트림에서 컷을 검출하는 단계;
    각 장면에 대해 적어도 한번, 적어도 인위적 원근 파라미터와 오프세트 파라미터를 판단하고 장면에 할당하도록 장면 프로세서를 이용하는 단계; 및
    인위적 원근 파라미터와 오프세트 파라미터를 이용해 2D 이미지 스트림으로부터 좌우 인위적 원근 이미지 쌍을 발생하도록 제 8 항의 방법을 반복적으로 적용하는 단계를 더 포함하는 장면 적용에 이용되는 의사-3D 이미지 쌍을 준비하는 방법.
  20. 제 18 항에 있어서,
    장면 프로세서는 적어도 몇몇 장면들에 대해 하나 이상의 추천된 인위적 원근 파라미터와 하나 이상의 추천된 오프세트 파라미터를 발행하고, 추천된 인위적 원근 파라미터와 오프세트 파라미터를 전송하며, 선택된 파라미터 메시지를 수신하고, 상기 선택된 파라미터 메시지에 응답해 인위적 원근 파라미터 및 오프세트 파라미터를 할당하는 의사-3D 이미지 쌍을 준비하는 방법.
  21. 제 19 항에 있어서,
    장면 프로세서는 적어도 몇몇 장면들에 대해 하나 이상의 추천된 인위적 원근 파라미터와 하나 이상의 추천된 오프세트 파라미터를 발행하고, 추천된 인위적 원근 파라미터와 오프세트 파라미터를 전송하며, 선택된 파라미터 메시지를 수신하고, 상기 선택된 파라미터 메시지에 응답해 인위적 원근 파라미터를 할당하는 의사-3D 이미지 쌍을 준비하는 방법.
  22. 메모리;
    메모리에 결합된 변환 프로세서; 및
    메모리에 있는 2D 이미지에 접근하고 상보적 테이퍼 기능을 2D 이미지에 적용해 좌우 인위적 원근 이미지 쌍을 발생하는 변환 프로세서에 실행되는 로직을 포함하는 2D 이미지로부터 의사-3D 이미지 쌍을 준비하는 장치.
  23. 제 15 항에 있어서,
    좌우 인위적 원근 이미지 각각은 내부 에지와 상기 내부 에지 맞은편에 외부 에지를 갖고,
    변환 프로세서에 실행되는 로직은 내부 에지가 각각의 좌우 인위적 원근 이미지에 대해 외부 에지보다 더 크도록 상보적 테이퍼 기능을 적용하는 2D 이미지로부터 의사-3D 이미지 쌍을 준비하는 장치.
  24. 제 22 항에 있어서,
    좌우 인위적 원근 이미지 각각은 내부 에지와 상기 내부 에지 맞은편에 외부 에지를 갖고,
    변환 프로세서에 실행되는 로직은 내부 에지가 각각의 좌우 인위적 원근 이미지에 대해 외부 에지보다 더 작도록 상보적 테이퍼 기능을 적용하는 2D 이미지로부터 의사-3D 이미지 쌍을 준비하는 장치.
  25. 제 22 항에 있어서,
    변환 프로세서에 접근할 수 있는 인위적 원근 파라미터 메모리를 더 포함하고,
    변환 프로세서상에 실행되는 로직이 상기 인위적 원근 파라미터 메모리에 있는 값에 응답해 상보적 테이퍼 기능을 적용하는 2D 이미지로부터 의사-3D 이미지 쌍을 준비하는 장치.
  26. 제 25 항에 있어서,
    인위적 원근 파라미터 메모리에 있는 값은 좌우 인위적 원근 이미지에 대해 적어도 하나의 투사면에 y축 주위로 회전을 표현하는 각도 파라미터인 2D 이미지로부터 의사-3D 이미지 쌍을 준비하는 장치.
  27. 제 26 항에 있어서,
    각도 파라미터는 우측 인위적 원근 투사면에 대한 좌측 인위적 원근 투사면의 약 -1.0에서 -3.0도 회전 범위 내의 값을 갖는 2D 이미지로부터 의사-3D 이미지 쌍을 준비하는 장치.
  28. 제 25 항 내지 제 27 항 중 어느 한 항에 있어서,
    인위적 원근 파라미터 메모리에 있는 값은 코너 맵핑 좌표 세트인 2D 이미지로부터 의사-3D 이미지 쌍을 준비하는 장치.
  29. 제 25 항에 있어서,
    인위적 원근 파라미터 메모리에 있는 값은 코너 맵핑 좌표 세트인 2D 이미지로부터 의사-3D 이미지 쌍을 준비하는 장치.
  30. 제 22 항에 있어서,
    변환 프로세서에 접근할 수 있는 오프세트 파라미터 메모리를 더 포함하고,
    변환 프로세서상에 실행되는 로직이 상기 오프세트 파라미터 메모리에 있는 값에 응답해 좌측 이미지를 좌로 우측 이미지를 우로 이동시키는 오프세트를 적용하는 2D 이미지로부터 의사-3D 이미지 쌍을 준비하는 장치.
  31. 제 30 항에 있어서,
    오프세트 파라미터 메모리에 있는 값은 2D 이미지 폭의 약 0.5에서 1.5 퍼센트 범위에 있는 오프세트를 명시하는 2D 이미지로부터 의사-3D 이미지 쌍을 준비하는 장치.
  32. 제 22 항에 있어서,
    변환 프로세서상에 실행되는 로직은 기설정된 종횡비로 좌우 인위적 원근 이미지를 클립시키는 2D 이미지로부터 의사-3D 이미지 쌍을 준비하는 장치.
  33. 제 22 항 내지 제 32 항 중 어느 한 항에 있어서,
    제 2 메모리;
    2D 이미지 스트림을 수신하고 이를 제 2 메모리에 제공하는 제 2 메모리에 결합된 입력 프로세서;
    컷의 반대편에서 연속 2D 이미지들이 다른 장면들을 나타낼 때 2D 이미지 스트림에 있는 컷들을 검출하는 제 2 메모리에 결합된 컷 검출 프로세서;
    각 장면에 대해 적어도 한번, 인위적 원근 파라미터 값을 판단하고 제 2 메모리에 설정하거나 불변인 채로 남겨두는 컷 검출 프로세서에 결합되는 장면 프로세서를 더 포함하고,
    변환 프로세서는 제 2 메모리에 더 결합되고, 변환 프로세서에 실행되는 로직은 인위적 원근 파라미터 값을 이용해 2D 이미지를 반복적으로 처리하는 2D 이미지로부터 의사-3D 이미지 쌍을 준비하는 장치.
  34. 제 22 항에 있어서,
    제 2 메모리;
    2D 이미지 스트림을 수신하고 이를 제 2 메모리에 제공하는 제 2 메모리에 결합된 입력 프로세서;
    컷의 반대편에서 연속 2D 이미지들이 다른 장면들을 나타낼 때 2D 이미지 스트림에 있는 컷들을 검출하는 제 2 메모리에 결합된 컷 검출 프로세서;
    각 장면에 대해 적어도 한번, 인위적 원근 파라미터 값을 판단하고 제 2 메모리에 설정하거나 불변인 채로 남겨두는 컷 검출 프로세서에 결합되는 장면 프로세서를 더 포함하고,
    변환 프로세서는 제 2 메모리에 더 결합되고, 변환 프로세서에 실행되는 로직은 인위적 원근 파라미터 값을 이용해 2D 이미지를 반복적으로 처리하는 2D 이미지로부터 의사-3D 이미지 쌍을 준비하는 장치.
  35. 제 33 항에 있어서,
    장면 프로세서는 장면 컷에서 사용자 개입 없이 인위적 원근 파라미터 값을 자동으로 판단하는 2D 이미지로부터 의사-3D 이미지 쌍을 준비하는 장치.
  36. 제 33 항에 있어서,
    장면 프로세서는 장면 컷에서 사용자 개입 없이 인위적 원근 파라미터 값을 자동으로 판단하는 2D 이미지로부터 의사-3D 이미지 쌍을 준비하는 장치.
  37. 제 33 항에 있어서,
    장면 프로세서에 결합된 사용자와 통신하기 위한 입출력 포트를 더 포함하고,
    장면 프로세서는 적어도 몇몇 장면들에 대해 하나 이상의 인위적 원근 파라미터 값을 발생하고, 출력포트를 통한 전송을 위해 추천 값을 보내고 입력포트를 통해 선택된 파라미터 메시지를 수신하며, 상기 선택된 파라미터 메시지에 응답해 제 2 메모리에 선택된 인위적 원근 파라미터를 제공하는 2D 이미지로부터 의사-3D 이미지 쌍을 준비하는 장치.
  38. 제 34 항에 있어서,
    장면 프로세서에 결합된 사용자와 통신하기 위한 입출력 포트를 더 포함하고,
    장면 프로세서는 적어도 몇몇 장면들에 대해 하나 이상의 인위적 원근 파라미터 값을 발생하고, 출력포트를 통한 전송을 위해 추천 값을 보내고 입력포트를 통해 선택된 파라미터 메시지를 수신하며, 상기 선택된 파라미터 메시지에 응답해 제 2 메모리에 선택된 인위적 원근 파라미터를 제공하는 2D 이미지로부터 의사-3D 이미지 쌍을 준비하는 장치.
  39. 제 30 항에 있어서,
    제 2 메모리;
    2D 이미지 스트림을 수신하고 이들을 제 2 메모리에 제공하는 제 2 메모리에 결합된 입력 프로세서;
    컷의 맞은편에서 연속 2D 이미지들이 다른 장면들을 나타낼 때 2D 이미지에 있는 컷을 검출하는 제 2 메모리에 결합된 컷 검출 프로세서;
    각 장면에 대해 적어도 한번, 인위적 원근 파라미터 값과 오프세트 파라미터 값을 판단하고 제 2 메모리에 설정하거나 불변인 채로 남겨두는 컷 검출 프로세서에 결합되는 장면 프로세서를 더 포함하고,
    변환 프로세서는 제 2 메모리에 더 결합되고, 변환 프로세서에 실행되는 로직은 인위적 원근 파라미터 값과 오프세트 파라미터 값을 이용해 2D 이미지를 반복적으로 처리하는 2D 이미지로부터 의사-3D 이미지 쌍을 준비하는 장치.
  40. 제 39 항에 있어서,
    장면 프로세서와 소통하게 결합된 입출력 포트를 더 포함하고,
    적어도 몇몇 장면들에 대해 하나 이상의 인위적 원근 파라미터 값과 하나 이상의 추천된 오프세트 파라미터 값을 발생하고, 추천된 값을 출력포트로 전송함, 입력포트로부터 선택된 파라미터 메시지를 수신하고, 상기 선택된 파라미터 메시지에 응답해 제 2 메모리에 인위적 원근 파라미터와 오프세트 파라미터의 선택된 값을 제공하는 2D 이미지로부터 의사-3D 이미지 쌍을 준비하는 장치.
  41. 비일시적 메모리에 결합된 적어도 하나의 프로세서에 실행될 때, 상보적 테이퍼 기능들을 적용하여 좌우 인위적 원근 이미지 쌍을 발생하도록 프로세서를 이용한 2D 이미지를 변환하는 단계를 포함하는 위치된 2D 이미지로부터 의사-3D 이미지 쌍을 준비하는 방법을 실행하는 비일시적 메모리에 프로그램 명령어를 포함한 제조사의 물품.
KR1020137016961A 2010-12-06 2011-12-06 의사-3d 인위적 원근법 및 장치 KR101863767B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US42026310P 2010-12-06 2010-12-06
US61/420,263 2010-12-06
US13/076,354 US10158846B2 (en) 2010-12-06 2011-03-30 Pseudo-3d forced perspective methods and devices
US13/076,354 2011-03-30
PCT/US2011/063520 WO2012078621A1 (en) 2010-12-06 2011-12-06 Pseudo-3d forced perspective methods and devices

Publications (2)

Publication Number Publication Date
KR20140030111A true KR20140030111A (ko) 2014-03-11
KR101863767B1 KR101863767B1 (ko) 2018-06-01

Family

ID=46161879

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020137016961A KR101863767B1 (ko) 2010-12-06 2011-12-06 의사-3d 인위적 원근법 및 장치

Country Status (8)

Country Link
US (1) US10158846B2 (ko)
EP (1) EP2649589A4 (ko)
JP (1) JP6141767B2 (ko)
KR (1) KR101863767B1 (ko)
CN (1) CN103329547B (ko)
AU (1) AU2011338589B2 (ko)
CA (1) CA2858523C (ko)
WO (1) WO2012078621A1 (ko)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120188329A1 (en) * 2011-01-26 2012-07-26 Kevin Archer Systems for vertical perspective correction
EP2984820A4 (en) * 2013-04-09 2017-03-22 Bitanimate, Inc. Two-dimensional video to three-dimensional video conversion method and system
EP3001680A1 (en) * 2014-09-24 2016-03-30 Thomson Licensing Device, method and computer program for 3D rendering
US11222461B2 (en) 2016-03-25 2022-01-11 Outward, Inc. Arbitrary view generation
US9996914B2 (en) * 2016-03-25 2018-06-12 Outward, Inc. Arbitrary view generation
US10163249B2 (en) 2016-03-25 2018-12-25 Outward, Inc. Arbitrary view generation
US11232627B2 (en) 2016-03-25 2022-01-25 Outward, Inc. Arbitrary view generation
US10163251B2 (en) 2016-03-25 2018-12-25 Outward, Inc. Arbitrary view generation
US10163250B2 (en) 2016-03-25 2018-12-25 Outward, Inc. Arbitrary view generation
US10506221B2 (en) 2016-08-03 2019-12-10 Adobe Inc. Field of view rendering control of digital content
US11461820B2 (en) 2016-08-16 2022-10-04 Adobe Inc. Navigation and rewards involving physical goods and services
US10068378B2 (en) 2016-09-12 2018-09-04 Adobe Systems Incorporated Digital content interaction and navigation in virtual and augmented reality
US10430559B2 (en) 2016-10-18 2019-10-01 Adobe Inc. Digital rights management in virtual and augmented reality
WO2018137736A1 (de) 2017-01-25 2018-08-02 Techkon Gmbh Verfahren und vorrichtung zum darstellen von farben eines farbraums
US10783681B2 (en) 2017-09-13 2020-09-22 International Business Machines Corporation Artificially tiltable image display
CN108712643B (zh) * 2018-04-27 2020-02-21 苏州新光维医疗科技有限公司 二维图像转换成三维图像的方法、装置及三维成像系统
CN108737810B (zh) * 2018-05-23 2019-08-06 苏州新光维医疗科技有限公司 图像处理方法、装置及三维成像系统
CN108732760A (zh) * 2018-05-28 2018-11-02 徐州昇科源信息技术有限公司 一种解决虚拟现实vr晕动症的方法
CN112184848B (zh) * 2020-09-24 2024-04-16 杭州安恒信息技术股份有限公司 伪3d素材可视化的方法、装置、电子装置和存储介质
US11423520B2 (en) * 2020-10-30 2022-08-23 Facebook Technologies, Llc. Distortion-corrected rasterization

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5959663A (en) * 1995-10-19 1999-09-28 Sony Corporation Stereoscopic image generation method and apparatus thereof
US6520647B2 (en) * 2000-08-17 2003-02-18 Mitsubishi Electric Research Laboratories Inc. Automatic keystone correction for projectors with arbitrary orientation
US20040136589A1 (en) * 2003-01-15 2004-07-15 Breslow Norman King Method and apparatus for modifying two-dimensional images
US7573489B2 (en) * 2006-06-01 2009-08-11 Industrial Light & Magic Infilling for 2D to 3D image conversion

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5065236A (en) * 1990-11-02 1991-11-12 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Stereoscopic camera and viewing systems with undistorted depth presentation and reduced or eliminated erroneous acceleration and deceleration perceptions, or with perceptions produced or enhanced for special effects
JPH09116932A (ja) * 1995-10-19 1997-05-02 Sony Corp 特殊効果装置
JP4169462B2 (ja) * 1999-08-26 2008-10-22 株式会社リコー 画像処理方法及び装置、デジタルカメラ、画像処理システム、並びに、画像処理プログラムを記録した記録媒体
US7254265B2 (en) * 2000-04-01 2007-08-07 Newsight Corporation Methods and systems for 2D/3D image conversion and optimization
US7245430B2 (en) * 2003-04-21 2007-07-17 Ricoh Company, Ltd. Method and apparatus for displaying three-dimensional stereo image using light deflector
US7262767B2 (en) 2004-09-21 2007-08-28 Victor Company Of Japan, Limited Pseudo 3D image creation device, pseudo 3D image creation method, and pseudo 3D image display system
EP1901236A4 (en) * 2005-07-05 2012-11-07 Sanyo Electric Co 3D IMAGE PROCESSING AND 3D PICTURE PROCESSING DEVICE AND PROGRAM AND PROGRAM MEMORY RECORDING MEDIUM
US7573475B2 (en) * 2006-06-01 2009-08-11 Industrial Light & Magic 2D to 3D image conversion
US8463019B2 (en) 2007-07-19 2013-06-11 JVC Kenwood Corporation Pseudo 3D image generation device, image encoding device, image encoding method, image transmission method, image decoding device, and image decoding method
KR101497503B1 (ko) 2008-09-25 2015-03-04 삼성전자주식회사 2차원 영상의 3차원 영상 변환을 위한 깊이 맵 생성 방법 및 장치
JP2010154422A (ja) * 2008-12-26 2010-07-08 Casio Computer Co Ltd 画像処理装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5959663A (en) * 1995-10-19 1999-09-28 Sony Corporation Stereoscopic image generation method and apparatus thereof
US6520647B2 (en) * 2000-08-17 2003-02-18 Mitsubishi Electric Research Laboratories Inc. Automatic keystone correction for projectors with arbitrary orientation
US20040136589A1 (en) * 2003-01-15 2004-07-15 Breslow Norman King Method and apparatus for modifying two-dimensional images
US7573489B2 (en) * 2006-06-01 2009-08-11 Industrial Light & Magic Infilling for 2D to 3D image conversion

Also Published As

Publication number Publication date
JP6141767B2 (ja) 2017-06-07
AU2011338589A1 (en) 2013-06-13
US20120140027A1 (en) 2012-06-07
EP2649589A1 (en) 2013-10-16
CA2858523C (en) 2020-07-21
JP2014506039A (ja) 2014-03-06
CA2858523A1 (en) 2012-06-14
KR101863767B1 (ko) 2018-06-01
CN103329547A (zh) 2013-09-25
US10158846B2 (en) 2018-12-18
CN103329547B (zh) 2017-11-17
WO2012078621A1 (en) 2012-06-14
AU2011338589B2 (en) 2017-03-23
EP2649589A4 (en) 2017-05-31

Similar Documents

Publication Publication Date Title
KR101863767B1 (ko) 의사-3d 인위적 원근법 및 장치
US8390674B2 (en) Method and apparatus for reducing fatigue resulting from viewing three-dimensional image display, and method and apparatus for generating data stream of low visual fatigue three-dimensional image
US9148646B2 (en) Apparatus and method for processing video content
US8488869B2 (en) Image processing method and apparatus
ES2676055T5 (es) Receptor de imagen eficaz para múltiples vistas
US9179124B2 (en) Method and apparatus for generating stereoscopic image data stream by using camera parameter, and method and apparatus for restoring stereoscopic image by using camera parameter
EP3669330A1 (en) Encoding and decoding of volumetric video
US7660472B2 (en) System and method for managing stereoscopic viewing
US10095953B2 (en) Depth modification for display applications
WO2012037685A1 (en) Generating 3d stereoscopic content from monoscopic video content
US20150304640A1 (en) Managing 3D Edge Effects On Autostereoscopic Displays
EP2676446B1 (en) Apparatus and method for generating a disparity map in a receiving device
US10063845B2 (en) Guided 3D display adaptation
RU2632404C2 (ru) Данные сигнализации глубины
KR101674688B1 (ko) 입체영상 재생 장치 및 입체영상 재생 방법
KR101433082B1 (ko) 2차원 영상과 3차원 영상의 중간 정도 느낌을 주는 영상 변환 및 재생 방법
Ostermann 3D information coding

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant