KR102281462B1 - 전자 디스플레이 앞에 또는 위에 투사한 것처럼 보이는 가상의 3차원 이미지를 생성하는 시스템, 방법 및 소프트웨어 - Google Patents

전자 디스플레이 앞에 또는 위에 투사한 것처럼 보이는 가상의 3차원 이미지를 생성하는 시스템, 방법 및 소프트웨어 Download PDF

Info

Publication number
KR102281462B1
KR102281462B1 KR1020197032236A KR20197032236A KR102281462B1 KR 102281462 B1 KR102281462 B1 KR 102281462B1 KR 1020197032236 A KR1020197032236 A KR 1020197032236A KR 20197032236 A KR20197032236 A KR 20197032236A KR 102281462 B1 KR102281462 B1 KR 102281462B1
Authority
KR
South Korea
Prior art keywords
virtual object
virtual
image
reference plane
stereoscopic camera
Prior art date
Application number
KR1020197032236A
Other languages
English (en)
Other versions
KR20190134715A (ko
Inventor
리차드 에스. 프리맨
스캇 에이. 홀링거
Original Assignee
맥스 미디어 그룹, 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 맥스 미디어 그룹, 엘엘씨 filed Critical 맥스 미디어 그룹, 엘엘씨
Publication of KR20190134715A publication Critical patent/KR20190134715A/ko
Application granted granted Critical
Publication of KR102281462B1 publication Critical patent/KR102281462B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/15Processing image signals for colour aspects of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Physics & Mathematics (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Architecture (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

전자 디스플레이(12) 상에 보여질 가상 장면(10)을 생성하는 시스템, 방법 및 소프트웨어가 개시된다. 가상 참조 평면(24)이 정의된다. 참조 평면(24)은 주변 경계(27, 28, 29, 30)를 가지고 있다. 가상 객체(20)는 가상 장면(10)에서 참조 평면(24) 상에 위치된다. 입체 카메라 시점(25, 26)은 가상 객체(20)가 참조 평면(24)의 주변 경계(27, 28, 29, 30) 내에서 참조 평면(24)으로 이미지화될 수 있게 계산된다. 가상 객체(20)는 입체적으로 이미지화되기 전에 및/또는 후에 디지털적으로 변경된다. 상기 변경은 가상 객체(20)의 일부를 굴곡, 테이퍼링, 또는 틸팅하는 것을 포함하며 및/또는 참조 평면(24)의 일부를 틸팅하는 것을 포함한다. 경계의 공통 세트는 겹쳐진 이미지를 위해 설정되어 최종 이미지(48)를 생성한다.

Description

전자 디스플레이 앞에 또는 위에 투사한 것처럼 보이는 가상의 3차원 이미지를 생성하는 시스템, 방법 및 소프트웨어
일반적으로, 본 발명은 전자 디스플레이 상에 보여지는 가상의 입체(stereoscopic) 및/또는 자동 입체(auto-stereoscopic) 이미지를 생성하는데 사용되는 시스템, 방법 및 소프트웨어에 관한 것이다. 보다 상세히하면, 본 발명은 전자 디스플레이 상에 또는 앞에 수직으로 투사한 것처럼 보이는 가상의 이미지를 생성하는 시스템, 방법 및 소프트웨어에 관한 것이다. 이 방식으로, 가상의 이미지는 전자 디스플레이 위에 서 있거나 떠 있는 것처럼 및/또는 전자 디스플레이 앞에 떠있는 것처럼 보일 수 있다.
입체 및 자동 입체 이미지들을 생성하기 위해 많은 시스템이 존재한다. 이 이미지들은 2차원이지만, 3D 안경을 사용하는 표준 디스플레이 상에서 볼 때 또는 3D 안경이 없는 무안경 입체 디스플레이(auto-stereoscopic display) 상에서 볼 때 3차원으로 보인다. 그러나, 종래 시스템에 의해 생성된 이미지가 3차원 이미지더라도, 이 이미지는 일반적으로 전자 스크린의 평면 뒤에 또는 아래에 존재하는 것으로 보인다. 따라서, 전자 디스플레이는 3차원 장면(scene)이 뒤에서 보여질 수 있는 윈도우(window) 효과를 가지고 있다.
가상 이미지가 표시되는 화면 상에 또는 앞에 서 있게 보일 가상 이미지를 생성하는 것이 훨씬 더 어렵다. 디스플레이 위에 또는 앞에 나타나는 가상 이미지를 생성하기 위해서는, 가상 이미지 생성에 정교한 조정(adjustment)이 포함되어야 한다. 이러한 조정은 종종 가상 이미지에 설계되는 시차(parallax) 및 시야각에 대한 복잡한 조정을 포함한다. 입체 이미지의 시차 및 시야각을 변경하는 종래 시스템은 Freeman의 미국 특허 번호 7,589,759에 예시되어 있다.
Freeman의 미국 특허 번호 7,589,759에는 디스플레이 스크린 앞에 또는 위에 나타나는 가상의 3D 객체(object)를 생성하는 시스템이 개시되어 있다. 이것은 주로 객체가 이미지화됨에 따라 이미징 입체 카메라(imaging stereoscopic camera)의 시차 및 시야각을 창의적으로 바꿈으로써 완수된다.
3D 객체의 가상 이미지는 새로운 방식으로 이미지화되는 객체의 이미지를 바꿈으로써 보다 사실적이고 보다 선명성을 가지고 생성될 수 있다는 것이 밝혀졌다. 본 발명에서, 출원인은 종래 기술의 몇 가지 개선점을 포함하고 전방 투사 또는 수직 투사에서 객체의 나타남을 만드는 보다 양호한 입체/자동입체 이미지를 생성하는 시스템 및 방법을 개발하였고, 여기에서 차원 효과는 극적으로 향상된다. 이미지는 높은 품질로 당 업계에서의 발전을 보여준다. 향상된 시스템 및 방법은 아래에 기술되고 청구된다.
본 발명은 전자 디스플레이로부터 또는 전자 디스플레이 앞쪽에 수직으로 투사한 것처럼 보이는 가상의 3D 장면을 생성하는 시스템, 방법 및 소프트웨어이다. 가상의 장면은 고정 이미지(fixed image) 또는 동적 비디오(dynamic video)일 수 있다. 가상의 장면은 전자 디스플레이 상에서 볼 때 3차원으로 나타나는 가상의 객체를 포함한다.
가상의 장면을 생성하기 위해서, 가상의 제로 시차 참조 평면(virtual zero parallax reference plane)이 정의된다. 상기 참조 평면은 전방 경계, 후방 경계, 및 측면 경계들을 포함하는 주변 경계들을 가지고 있다. 가상 장면에는 적어도 하나의 가상 객체가 추가된다. 가상 객체는 참조 평면 상의 시점(view point)으로부터 참조 평면의 경계 내에서 보여진다. 전자 디스플레이 상에 또는 앞에 가상 객체의 출현을 향상시키기 위해서, 가상 장면의 가상 객체 및/또는 요소(elements)가 디지털적으로 변경된다.
입체 카메라 시점들은 가상 객체가 참조 평면의 주변 경계들 내에서 이미지화될 수 있도록 계산된다. 가상 객체는 이미지화되기 전에 및/또는 후에 디지털적으로 변경된다. 가상 객체의 변경은 가상 객체의 일부를 굴곡하고(bend), 가상 객체의 일부를 테이퍼링하고(taper)), 가상 객체를 틸팅하고(tilt) 및/또는 참조 평면의 모두 또는 일부를 틸팅하는 것을 포함한다.
가상 장면은 입체 시점들로부터 이미지화된다. 이미징(imaging)은 제 1 이미지와 제 2 이미지를 생성한다. 변경된 가상 객체의 두 개의 이미지는 겹쳐져서 겹쳐진 이미지를 생성한다. 경계들의 공통 세트는 겹쳐진 이미지를 위해 설정되어 최종 이미지를 생성한다. 최종 이미지는 전자 디스플레이 상에 보여질 수 있고, 가상 장면에 사용된 참조 평면은 전자 디스플레이의 화면의 평면과 정렬된다. 그 결과, 가상 장면에서의 가상 객체가 전자 디스플레이의 지향(orientation)에 따라 전자 디스플레이 상에 또는 앞에 있는 것처럼 나타날 것이다.
본 발명의 더 나은 이해를 위해서, 본 발명의 실시예의 아래의 기술이 언급되고 참조한 도면과 함께 고려된다:
도 1은 본 발명의 시스템, 방법, 및 소프트웨어를 만들고 활용하는데 필요한 시스템 하드웨어를 도시한다;
도 2는 가상 장면의 실시예의 사시도이다;
도 3은 도 2의 가상 장면의 측면도이다;
도 4는 가상 장면의 참조평면 및/또는 가상 객체에 대한 틸트 디지털 변형을 도시하는 측면도이다;
도 5는 가상 장면에서의 가상 객체에 대한 굽힘 디지털 변형을 도시하는 측면도이다;
도 6은 가상 장면에서의 가상 객체에 대한 테이퍼 디지털 변형을 도시하는 정면도이다;
도 7 및 도 8은 각각 가상 장면의 좌우 입체 이미지를 도시한다;
도 9는 가이드라인들(guidelines)의 겹침을 도시하는 입체 이미지의 상면도이다;
도 10은 도 9에 이전에 도시된 가이드 라인들을 사용하여 생성된 디지털적으로 수정된 입체 이미지를 도시한다;
도 11은 좌우 입체 이미지가 겹쳐진 최종 이미지를 도시한다; 및
도 12는 본 발명에 의해 활용되는 소프트웨어 방법론에 대한 논리 흐름 블록도를 도시한다.
본 발명의 시스템, 방법 및 소프트웨어가 많은 방식으로 구현될 수 있어도, 예시된 실시예는 상기 시스템, 방법 및 소프트웨어가 공룡의 이미지를 시뮬레이션하는데 사용되는 것을 도시한다. 본 실시예는 본 발명의 기술 및 설명을 위해서 선택된 것이다. 공룡은 시스템을 통해 이미지화되어 제시될 수 있는 실제 또는 가상의 어떤 객체를 나타내기 위한 것이다. 그러나, 예시된 실시예는 단지 예시일 뿐, 첨부된 특허청구범위를 해석할 때 제한으로 간주되어서는 안 된다.
도 1을 참조하면, 본 발명이 전자 장치(14)의 디스플레이(12) 상에 가상 장면(10)을 생성하는데 사용된다는 것이 이해될 것이다. 가상 장면(10)은 3차원의 특징을 가진 가상 장면(10)을 시청하는 사람에게 나타난다. 또한, 가상 장면(10)은 시청자에게 디스플레이(12)의 평면 상에서 확대하는 것처럼 보이는 요소들(elements)을 포함한다. 전자 장치(14)가 종래 LED 디스플레이 또는 LCD 디스플레이를 포함하면, 가상 장면(10)은 가상 장면(10)에서의 3차원 효과를 관찰하기 위해서 3D 안경으로 보여야만 할 것이다. 전자 장치(14)가 무안경 입체 디스플레이(auto-stereoscopic display)를 포함하면, 가상 장면(10)에서의 3차원 효과는 전문화된 안경없이도 관찰될 수 있다.
전자 장치(14)에 표시된 가상 장면(10)은 정지 이미지 또는 비디오일 수 있다. 또한, 가상 장면(10)은 비디오 게임 또는 영화의 일부일 수 있다. 가상 장면(10)이 제시되는 맥락(context)에 상관없이, 사용자는 이미지, 모바일 어플리케이션(mobile application), 게임, 영화, 또는 이러한 다른 준비된 소프트웨어 파일(16)을 가상 장면(10)을 포함하는 전자 장치(14)로 다운로드 하거나 그렇지 않으면 입력해야 한다.
준비된 소프트웨어 파일(16)은 그래픽 아티스트, 게임 디자이너 또는 유사한 콘텐츠 제작자에 의해 생성된다. 콘텐츠 제작자는 콘텐츠 제작자의 컴퓨터 시스템(19)에서 실행되는 그래픽 모델링 소프트웨어(graphic modeling software)(18)를 사용하여 준비된 소프트웨어 파일(16)에 가상 장면(10)을 생성한다. 기술되겠지만, 그래픽 모델링 소프트웨어(18)는 두 개의 입체 이미지를 사용해야 한다. 가상 장면(10)이 가상 객체들을 포함하면, 가상 객체들은 가상 카메라들로 이미지화된다. 가상 장면(10)이 실제 객체들을 포함하면, 실제 객체들은 실제 카메라들(17)의 입체 세트로 이미지화될 수 있다.
도 1과 함께 도 2 및 도 3을 참조하면, 그래픽 모델링 소프트웨어(18)를 사용하여 생성됐던 예시적 가상 장면(10)이 도시된다. 가상 장면(10)은 주요 객체(primary object, 20)를 포함한다. 도시된 예에서, 주요 객체(20)는 공룡(22)이다. 그러나, 가상 장면(10)에서는 어떠한 객체도 모형이 될 수 있다는 것이 이해될 것이다. 가상 장면(10)은 참조 평면(24)을 가지고 있다. 참조 평면(24)은 객체가 위에, 앞에 및/또는 아래에 있는 것처럼 나타나는 가상 장면(10)에서의 어떤 평면일 수 있다. 예시된 실시예에서, 참조 평면(24)은 공룡(22)이 서 있는 지면과 지향되어 있다. 가상 장면(10)의 참조 평면(24)은 전자 디스플레이(12)에 표시될 때 전자 디스플레이(12)의 평면을 따라 지향될 것이다. 이와 같이, 가상 장면(10)을 볼 때, 참조 평면(24) 위에서 이미지화된 어떤 객체는 전자 디스플레이(12)의 지향에 따라 전방에 투사되어 전자 디스플레이(12) 앞에 또는 위에 확대하는 것처럼 보일 것이다. 반대로, 참조 평면(24) 아래에서 이미지화된 어떤 객체는, 가상 장면(10)을 볼 때, 후방으로 투사되어 가상 제로 시차 참조 평면 아래에 또는 뒤에 나타날 것이다.
가상 장면(10)이 프린트된다면, 참조 평면(24)은 콘텐츠 제작자에 의해 선택된다. 참조 평면은 일반적으로 가상 장면(10)이 프린트되는 용지의 평면과 상응하도록 선택된다. 그러나, 다른 참조 평면들이 선택될 수 있다.
실제 객체가 실제 카메라(17)로 이미지화되어 디지털 입체 및/또는 자동 입체 이미지로 생성될 수 있다 하더라도, 이 기술은 예시로서 사용되지 않는다. 제공된 예시에서, 이미지화될 객체는 콘텐츠 제작자의 컴퓨터 시스템(19)에서 실행되는 그래픽 모델링 소프트웨어(18)에 의해 생성되는 가상 객체다. 이와 같이, 예를 들어, 생성된 주요 객체(20)가 가상 장면(10)에서 설정되고 가상 카메라로 이미지화된 가상 객체라고 가정될 것이다. 그러나, 여기에서 기술될 기술이 실제 카메라(17)로 실제 객체를 이미지화함으로써 실제 객체의 입체 및/또는 자동 입체 이미지를 생성하는데 동일하게 사용될 수 있다는 것이 이해될 것이다.
가상 장면(10)은 입체적으로 보여진다. 가상의 좌측 카메라 시점(viewpoint)(25)과 가상의 우측 카메라 시점(26)으로부터 가상 장면(10)은 입체적으로 보여진다. 가상 카메라 시점들(25, 26)간의 거리(D1)와 가상 카메라 시점들(25, 26)의 앙각(angle of elevation)(A1)은 가상 장면(10)에 범위에 달려 있다. 가상 장면(10)은 전자 디스플레이(12)에 보여지도록 생성된다. 대부분의 전자 디스플레이들은 직사각형 형상으로 길이의 50% 내지 80% 사이의 폭을 가지고 있다. 따라서, 가상 장면(10)은 가상 장면(10)을 일반적인 전자 디스플레이(12)에 적합한 사이즈 및 스케일이 되게 하는 경계 내에서 생성된다. 경계는 전방 경계(27), 후방 경계(28), 및 두 개의 측면 경계들(29, 30)을 포함한다. 전자 디스플레이(12)에 표시될 어떠한 가상 장면(10)은 보여지기 위해서 경계들(27, 28, 29, 30) 내에 있어야 한다.
후방 이미지 경계(28)는 가상 장면(10)에 대해서 설정된다. 가상 장면(10)에서 이미지화될 객체들 모두는 후방 이미지 경계(28) 앞에 나타나야 한다. 주요 객체(20)는 높이(H1)를 가지고 있다. 가상 카메라 시점들(25, 26)은 제 2 높이(H2)로 설정된다. 제 2 높이(H2)는 객체 높이(H1)와 후방 이미지 경계(28)의 함수이다. 가상 카메라 시점들(25, 26)의 제 2 높이(H2)는 주요 객체(20)의 맨 위(top)가 가상 카메라 시점들(25, 26)로부터 바라볼 때 후방 이미지 경계(28) 넘어서 확대하지 않도록 충분히 높다. 가상 카메라 시점들(25, 26)의 앙각과 가상 카메라 시점들(25, 26)의 수렴각은 장면 경계들(27, 28, 29, 30)과 주요 객체(20)의 높이(H1)에 따라 달라지는 직접적인 수학적 관계를 가지고 있다.
가상 카메라 시점들(25, 26)은 가상 카메라 시점들(25, 26)이 참조 평면(24)에서 교차하도록 시차각(parallax angle)을 가지고 있다. 즉, 두 개의 가상 카메라 시점들(25, 26)은 참조 평면(24)에서 제로 시차(zero parallax)를 달성한다. 수렴점(P)은 주요 객체(20)가 참조 평면(24) 위에 놓여 있으면 바람직하게 주요 객체(20)의 바닥과 후방 근처의 점에 대응하게 선택된다. 예를 들어, 예시된 실시예에서, 참조 평면(24)은 공룡(22)이 서 있는 지면에 대응한다. 가상 카메라 시점들(25, 26)은 공룡의 몸 뒤쪽 바로 아래에 지면을 향하고 있다. 그러나, 가상 장면이 구름을 통과하여 비행하는 비행기의 장면이라면, 참조 평면은 비행기의 위치 훨씬 아래에 있을 수 있다. 이 시나리오에서, 가상 카메라 시점들(25, 26)은 가상의 비행기가 비행하는 것처럼 보이는 곳 아래의 참조 평면(24)으로 향할 것이다. 가상 카메라 시점들(25, 26)의 각은 주요 객체(20)가 참조 평면(24)에 대해서 이동함에 따라 프레임 단위로 조정된다.
도 3과 함께 도 4를 참조하면, 가상 장면(10)은 단지 가상 카메라 시점들(25, 26)로부터 이미지화된 것은 아니다라고 설명될 수 있다. 오히려, 가상 장면(10)을 이미지화하기 전에 및/또는 후에, 가상 장면(10)은 획득할 입체 이미지에 유익한 다양한 방식으로 디지털적으로 조작된다. 이 디지털 조작은 다음을 포함하지만, 이에 한정되지는 않는다:
가상 장면의 참조 평면의 틸트 조작(tilt manipulation);
가상 장면에서 1차 및 2차 객체들의 틸트 조작;
가상 장면에서 객체들의 굽힘 조작(bend manipulation); 및
가상 장면에서 객체들의 테이퍼 조작(taper manipulation).
사용되는 조작들은 가상 장면(10)에서 이미지화되는 객체들의 세부사항에 달려 있다.
도 4는 사용될 수 있는 두 개의 가능한 틸트 조작을 예시한다. 제 1 틸트 조작에서, 참조 평면(24)은 가상 카메라 시점들(25, 26)을 향하여 또는 떨어져서 틸트될 수 있다. 바람직한 틸트 각도(A2)는 일반적으로 주요 객체(20)의 최종 감지된 높이에 따라 수평으로부터 1도와 20도 사이이다. 제 2 틸트 조작에서, 주요 객체(20)는 가상 카메라 시점들(25, 26)을 향하여 또는 떨어져서 틸트될 수 있다. 바람직한 틸트 각도(A1)는 일반적으로 주요 객체(20)의 최종 감지된 높이에 따라 수평으로부터 1도와 20도 사이이다. 주요 객체(20)의 틸트 각도(A1)는 가상 장면(10)에서 참조 평면과 다른 요소들의 틸트 각도(A2)와 독립적이다.
주요 객체(20) 아래의 카메라 시점 변환점(camera viewpoint conversion point, P)을 받침점(fulcrum point)으로 사용하여, 참조 평면(24)은 앞으로 또는 뒤로 틸트되도록 디지털적으로 조작될 수 있다. 참조 평면(24)의 틸트 각도(T2)는 주요 객체(20)의 틸트 각도(T2)와 독립적이다. 참조 평면(24)의 틸팅은 주요 객체(20)의 감지된 위치에 대한 후방 이미지 경계(28)의 위치를 변화시킨다. 이것은 주요 객체(20)의 높이가 수학적 관계의 범위 내에서 비례적으로 증가되게 할 수 있다.
도 5를 참조하면, 바람직한 굽힘 조작이 도시된다. 도 5에서, 주요 객체(20B)는 설명의 편의성을 위해서 공룡보다는 직사각형으로 도시된다. 공룡의 복잡한 형상에서의 굽힘을 감지하는 것이 어려울 수 있다. 굽힘점(bend point, B1)은 주요 객체(20B)의 높이에 따라 선택된다. 굽힘점(B1)은 주요 객체(20B)의 전체 높이의 1/3과 2/3 사이에 있다. 주요 객체(20B)는 또한 그의 높이에 따라 3개의 영역(31, 33, 35)으로 분리된다. 제 1 영역(31)에서, 주요 객체(20B)는 조작되지 않는다. 제 2 영역(33)에서, 굽힘선(B1)까지는 조작이 없다. 제 2 영역(33) 내에서 굽힘선(B1) 위의 주요 객체(20B)의 어떤 일부는 제 1 각(AA1)만큼 디지털적으로 틸트된다. 제3 영역(35)에서, 주요 객체(20B)가 제 1 각(AA1)보다 가파른 제 2 각(AA2)으로 틸트된다. 제 1 각(AA1)과 제 2 각(AA2)은 가상 카메라 시점들(25, 26)이 설정된 수직 평면에 평행한 가상 수직 평면과 관련하여 측정된다. 그 결과, 가상 장면(10)이 후방 이미지 경계(28)를 넘어서 확대되지 않고도 보다 크고 보다 높게 만들어질 수 있다. 주요 객체(20B)는 가상 카메라 시점들(25, 26)로부터 바라볼 때 보다 높게 보이고 보다 두드러진 전방 또는 수직 투사가 있다.
도 6을 참조하여, 바람직한 테이퍼 조작이 설명된다. 주요 객체(20B)는 설명의 편의성을 위해서 공룡보다는 다시 전형적인 직사각형으로 도시된다. 주요 객체(20B)는 그의 높이에 따라 2개의 영역(37, 39)으로 분리된다. 제 1 영역(37)에서, 주요 객체(20B)는 조작되지 않는다. 제 2 영역(39)에서, 주요 객체(20B)는 1도와 25도 사이의 각(AA3)의 처음부터 끝까지를 테이퍼링함으로써 크기가 줄어든다. 테이퍼가 시작하는 포인트는 주요 객체(20B)의 높이의 1/3과 2/3 사이에 위치되어 있다. 그 결과, 가상 장면(10)이 측면 이미지 경계들(29, 30)을 넘어서 확대되지 않고도 보다 넓게 생성될 수 있다. 주요 객체(20B)는 바라볼 때 보다 높게 보이고 보다 두드러진 전방 또는 수직 투사가 있다.
가상 장면(10)이 기술된 하나 이상의 방식으로 디지털적으로 조정되면, 변경된 가상 장면이 생성된다. 또는, 가상 장면은 어떠한 디지털 조정전에 이미지화될 수 있고, 디지털 조정은 2개의 이미지가 입체 또는 자동 입체 이미지로 합쳐진 후에 수행될 수 있다.
도 2와 함께 도 7 및 도 8를 참조하면, 두 개의 이미지(40, 42)는 입체적으로, 하나는 좌측 카메라 이미지(40)(도 7)이고 다른 하나는 우측 카메라 이미지(42)(도 8)라고 볼 수 있다. 각 입체 이미지(40, 42)는 카메라 시점의 각도에 의해서 페이딩 원근(fading perspective)이 있다. 이것은 전방 이미지 경계(27)가 후방 이미지 경계(28)보다 넓어 보이게 한다.
도 9를 참조하면, 도 7 또는 도 8로부터의 입체 이미지들(40, 42) 중의 하나의 상면도가 도시된다. 입체 이미지들 중의 하나만이 도시되더라도, 기술된 공정은 두 개의 입체 이미지들 모두에 수행된다는 것이 이해될 것이다. 따라서, 두 개의 입체 이미지들의 참조번호 '40'과 '42'는 기술된 공정이 두 개의 입체 이미지들 모두에 영향을 미친다는 것을 나타내는데 사용된다.
임시 참조 가이드(reference guide)는 입체 이미지(40, 42)와 겹쳐진다. 참조 가이드는 내부 가이드라인(44)의 세트 및 외부 가이드라인(46)의 세트를 포함한다. 내부 가이드라인(44)은 후방 이미지 경계(28)로부터 전방 이미지 경계(27)까지 연장하는 평행선이다. 내부 가이드라인(44)은 입체 이미지(40, 42)와 후방 이미지 경계(28)가 만나는 점(P2)에서 시작한다. 외부 가이드라인(46)도 후방 이미지 경계(28)로부터 전방 이미지 경계(27)까지 연장하는 평행선이다. 외부 가이드라인(46)의 위치는 가상 장면(10)이 표시될 전자 디스플레이(12)의 차원에 달려있다. 외부 가이드라인들(46)간의 폭은 사용될 전자 디스플레이의 픽셀(pixel) 폭에 대응한다.
도 9와 함께 도 10을 참조하면, 입체 이미지(40, 42)가 외부 가이드라인(46)의 파라미터(parameter)에 맞도록 디지털적으로 변형된다고 볼 수 있다. 이와 같이, 입체 이미지(40, 42)가 후방 이미지 경계(28)를 향하여 넓어지고 전방 이미지 경계(27)를 향하여 압축된다. 이것은 수정된 입체 이미지(40A, 42A)를 생성한다. 내부 가이드라인(44)은 수정된 입체 이미지(40A, 42A)에 남아있다.
도 10과 함께 도 11을 참조하면, 수정된 좌우 입체 이미지들(40A, 42A)은 겹쳐진다. 두 개의 수정된 입체 이미지들(40A, 42A)로부터의 내부 가이드라인(44)이 정렬된다. 정렬이 달성되면, 내부 가이드라인(44)은 제거된다. 이것은 최종 이미지(48)를 생성한다. 최종 이미지(48)를 보는 방법에 따라서, 수정된 입체 이미지(40A, 42A)가 빨간색 또는 파란색으로 채색될 수 있고, 또는 수정된 입체 이미지(40A, 42A)가 반대로 편광될 수 있다. 이런 방식으로, 최종 이미지(48)를 3D 안경을 사용하여 또는 무안경 입체 디스플레이에서 볼 때, 최종 이미지(48)는 3차원인 것처럼 보일 것이다.
이전의 도면들 모두를 고려하여 도 12를 참조하면, 전체 시스템을 위한 소프트웨어 방법론을 요약할 수 있다. 블록(50)에 나타낸 바와 같이, 콘텐츠 제작자는 가상 장면(10)에서 3D 객체로서 나타날 한 개 이상의 객체(20)를 포함하는 가상 장면(10)을 생성한다. 도 1 및 도 2의 상기 기술을 참조한다. 콘텐츠 제작자는 또한 가상 장면(10)을 위한 참조 평면(24)을 선택한다. 블록(52)을 참조한다. 참조 평면(16)과 선택된 객체(20)를 사용하여, 콘텐츠 제작자는 가상 장면(10)의 경계를 정할 수 있다. 블록(54)을 참조한다.
가상 장면(10)의 경계와 참조 평면(24)을 알게 됨으로써, 콘텐츠 제작자는 실제 입체 카메라(17)의 가상 카메라 시점들(25, 26)의 각과 높이를 설정한다. 카메라 시점들은 입체 카메라의 조준선이 참조 평면(24)에서 제로 시차를 달성하도록 설정된다. 블록(56)을 참조한다. 또한, 도 3의 상기 기술을 참조한다.
블록(58, 60, 62)에 나타낸 바와 같이, 가상 장면(10)은 틸트 조작, 굽힘 조작, 그리고 테이퍼 조작을 사용하여 디지털적으로 변경된다. 도 4, 5, 6의 상기 기술을 참조한다. 그러면, 두 개의 입체 이미지(40, 42)가 가상 장면을 위해 획득된다. 블록(64)을 참조한다. 또한, 도 7과 도 8의 상기 기술을 참조한다. 그러면 입체 이미지(40, 42)가 가상 장면(10)의 보더(boarder) 가이드라인에 맞도록 수정된다. 블록(66)을 참조한다. 또한, 도 9과 도 10의 상기 기술을 참조한다. 마지막으로, 수정된 입체 이미지들이 겹쳐진다. 블록(68)을 참조한다. 또한, 도 11의 상기 기술을 참조한다. 그 결과는 사용자가 볼 때 디스플레이(12) 위에 또는 앞에 확대한 것처럼 보이는 최종 이미지(48)이다.
예시되고 기술된 본 발명의 실시예는 단지 예시적인 것으로, 통상의 기술자는 이 실시예에 많은 변형을 실시할 수 있다는 것이 이해될 것이다. 이러한 모든 실시예는 첨부된 청구범위에 의해 정의된 바와 같이 본 발명의 범위 내에서 포함되도록 의도된다.

Claims (20)

  1. 디스플레이(display) 상에서 볼 때 3차원으로 나타나며 감지된 높이를 갖는 가상 객체(virtual object)를 포함하는 가상 장면(scene)을 생성하는 방법에 있어서,
    전방 경계, 후방 경계, 및 측면 경계를 포함하는 주변 경계를 가지고 있는 가상 참조 평면을 정의하는 단계;
    상기 가상 참조 평면 상에 상기 가상 객체를 설정하는 단계;
    상기 가상 객체가 상기 참조 평면의 상기 주변 경계 내에서 상기 참조 평면으로 이미지화될 수 있게 하는 입체 카메라 시점(stereoscopic camera viewpoint)을 결정하는 단계;
    상기 가상 객체의 상기 감지된 높이 일부를 가상으로 굽힘으로써 상기 가상 객체를 변경하여 변경된 가상 객체를 생성하는 단계;
    상기 입체 카메라 시점으로부터 상기 변경된 가상 객체를 이미지화하는 단계, 상기 입체 카메라 시점으로부터 상기 변경된 가상 객체를 이미지화하는 단계에서는 제 1 이미지와 제 2 이미지를 생성하며;
    상기 제 1 이미지와 상기 제 2 이미지를 겹쳐서 겹쳐진 이미지를 생성하는 단계;
    상기 겹쳐진 이미지에 대한 경계들의 공통 세트를 정의하여 최종 이미지를 생성하는 단계; 및
    상기 최종 이미지를 상기 디스플레이 상에 표시하는 단계를 포함하는,
    디스플레이 상에 보여질 가상 장면을 생성하는 방법.
  2. 제 1항에 있어서,
    상기 디스플레이는 스크린 평면을 가지고 있고, 상기 최종 이미지는 상기 참조 평면이 상기 스크린 평면에 대해 지향(orient)되게 표시되는 방법.
  3. 제 1항에 있어서,
    상기 입체 카메라 시점은 공통 평면에 있고, 상기 공통 평면으로부터 볼 때 상기 가상 객체의 상기 일부를 가상으로 굽힘으로써 상기 가상 객체를 변경하는 방법.
  4. 제 1항에 있어서,
    상기 가상 객체의 상기 감지된 높이 일부를 가상으로 굽힘으로써 상기 가상 객체를 변경하는 단계는 상기 가상 객체 상의 제 1 높이에서 제 1 굽힘점을 선택하는 것과 상기 제 1 굽힘점 위에 있는 상기 가상 객체만을 굽히는 것을 포함하는 방법.
  5. 제 4항에 있어서,
    상기 제 1 굽힘점의 상기 제 1 높이는 상기 감지된 높이의 1/3과 2/3 사이에 있는 방법.
  6. 제 1항에 있어서,
    상기 가상 객체의 상기 감지된 높이 일부를 가상으로 굽힘으로써 상기 가상 객체를 변경하는 단계는 상기 가상 객체 상의 제 1 높이에서 제 1 굽힘점과 상기 가상 객체 상의 제 2 높이에서 제 2 굽힘점을 선택하는 것을 포함하며,
    상기 가상 객체는 상기 제 1 굽힘점 상의 제 1 각과 상기 제 2 굽힘점 상의 제 2 각만큼 굽혀지는 방법.
  7. 제 6항에 있어서,
    상기 제 2 각은 상기 제 1 각보다 큰 방법.
  8. 제 1항에 있어서,
    상기 입체 카메라 시점으로부터 떨어져서 상기 가상 객체의 적어도 일부를 가상으로 테이퍼링(taper)함으로써 상기 가상 객체를 변경하는 단계를 더 포함하는 방법.
  9. 제 1항에 있어서,
    상기 입체 카메라 시점으로부터 볼 때 상기 참조 평면의 적어도 일부를 가상으로 틸팅(tilt)함으로써 상기 가상 객체를 변경하는 단계를 더 포함하는 방법.
  10. 제 1항에 있어서,
    상기 입체 카메라 시점으로부터 볼 때 상기 가상 객체의 적어도 일부를 가상으로 틸팅함으로써 상기 가상 객체를 변경하는 단계를 더 포함하는 방법.
  11. 디스플레이(display) 상에서 볼 때 적어도 부분적으로 3차원으로 나타나는 가상 객체(virtual object)를 포함하는 가상 장면을 생성하는 방법에 있어서,
    전방 경계, 후방 경계, 및 측면 경계를 포함하는 주변 경계를 가지고 있는 가상 참조 평면을 정의하는 단계;
    상기 가상 참조 평면 상에 상기 가상 객체를 설정하는 단계;
    상기 가상 객체가 상기 참조 평면의 상기 주변 경계 내에서 상기 참조 평면으로 이미지화될 수 있게 하는 입체 카메라 시점(stereoscopic camera viewpoint)을 결정하는 단계;
    상기 참조 평면의 적어도 일부를 가상으로 틸팅(tilt)함으로써 상기 가상 객체를 변경하여 변경된 가상 객체를 생성하는 단계;
    상기 입체 카메라 시점으로부터 상기 변경된 가상 객체를 이미지화하는 단계, 상기 입체 카메라 시점으로부터 상기 변경된 가상 객체를 이미지화하는 단계에서는 제 1 이미지와 제 2 이미지를 생성하며;
    상기 제 1 이미지와 상기 제 2 이미지를 겹쳐서 겹쳐진 이미지를 생성하는 단계; 및
    상기 겹쳐진 이미지에 대한 경계들의 공통 세트를 정의하여 최종 이미지를 생성하는 단계,
    를 포함하는 디스플레이 상에 보여질 가상 장면을 생성하는 방법.
  12. 제 11항에 있어서,
    상기 디스플레이는 스크린 평면을 가지고 있고, 상기 최종 이미지는 상기 참조 평면이 상기 스크린 평면에 대해 지향(orient)되게 표시되는 방법.
  13. 제 11항에 있어서,
    상기 입체 카메라 시점은 공통 평면에 있고,
    상기 참조 평면의 적어도 일부를 가상으로 틸팅함으로써 상기 가상 객체를 변경하는 단계는 상기 입체 카메라 시점으로부터 볼 때 상기 후방 경계 근방 상기 참조 평면을 틸팅하는 것을 포함하는 방법.
  14. 제 11항에 있어서,
    상기 입체 카메라 시점은 공통 평면에 있고,
    상기 참조 평면의 적어도 일부를 가상으로 틸팅함으로써 상기 가상 객체를 변경하는 단계는 상기 입체 카메라 시점과 관련하여 상기 가상 객체를 틸팅하는 것을 포함하는 방법.
  15. 제 14항에 있어서,
    상기 공통 평면과 관련하여 상기 가상 객체의 일부를 가상으로 굽힘으로써 상기 가상 객체를 변경하는 단계를 더 포함하는 방법.
  16. 제 11항에 있어서,
    상기 입체 카메라 시점으로부터 떨어져서 상기 가상 객체의 적어도 일부를 가상으로 테이퍼링(taper)함으로써 상기 가상 객체를 변경하는 단계를 더 포함하는 방법.
  17. 디스플레이(display) 상에서 볼 때 적어도 부분적으로 3차원으로 나타나는 가상 객체(virtual object)를 포함하는 가상 장면을 생성하는 방법에 있어서,
    주변 경계를 가지고 있는 가상 참조 평면을 정의하는 단계;
    상기 가상 참조 평면 상에 상기 가상 객체를 설정하는 단계;
    상기 가상 객체가 상기 참조 평면의 상기 주변 경계 내에서 상기 참조 평면으로 이미지화될 수 있게 하는 입체 카메라 시점(stereoscopic camera viewpoint)을 결정하는 단계;
    상기 입체 카메라 시점으로부터 볼 때 상기 가상 객체의 일부를 가상으로 테이퍼링(taper)함으로써 상기 가상 객체를 변경하여 변경된 가상 객체를 생성하는 단계;
    상기 입체 카메라 시점으로부터 상기 변경된 가상 객체를 이미지화하는 단계, 상기 입체 카메라 시점으로부터 상기 변경된 가상 객체를 이미지화하는 단계에서는 제 1 이미지와 제 2 이미지를 생성하며; 및
    상기 제 1 이미지와 상기 제 2 이미지를 겹쳐서 겹쳐진 이미지를 생성하고 최종 이미지를 생성하는 단계,
    를 포함하는 디스플레이 상에 보여질 가상 장면을 생성하는 방법.
  18. 제 17항에 있어서,
    상기 최종 이미지를 상기 디스플레이에 보여주는 단계를 더 포함하며,
    상기 디스플레이는 스크린 평면을 가지고 있고, 상기 최종 이미지는 상기 참조 평면이 상기 스크린 평면에 대해 지향(orient)되게 표시되는 방법.
  19. 제 17항에 있어서,
    상기 가상 객체의 일부를 가상으로 테이퍼링함으로써 상기 가상 객체를 변경하는 단계는 상기 가상 객체 상의 제 1 높이에서 제 1 점을 선택하는 단계와, 상기 제 1 점 위에 있는 상기 가상 객체만을 테이퍼링하는 것을 포함하는 방법.
  20. 제 17항에 있어서,
    상기 가상 객체는 감지된 높이를 가지고 있고, 상기 제 1 점의 상기 제 1 높이는 상기 감지된 높이의 1/3과 2/3 사이에 있는 방법.
KR1020197032236A 2016-04-08 2018-04-05 전자 디스플레이 앞에 또는 위에 투사한 것처럼 보이는 가상의 3차원 이미지를 생성하는 시스템, 방법 및 소프트웨어 KR102281462B1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201662319788P 2016-04-08 2016-04-08
US15/481,447 2017-04-06
US15/481,447 US10136121B2 (en) 2016-04-08 2017-04-06 System, method and software for producing virtual three dimensional images that appear to project forward of or above an electronic display
PCT/US2018/026345 WO2018187635A1 (en) 2016-04-08 2018-04-05 System, method and software for producing virtual three dimensional images that appear to project forward of or above an electronic display

Publications (2)

Publication Number Publication Date
KR20190134715A KR20190134715A (ko) 2019-12-04
KR102281462B1 true KR102281462B1 (ko) 2021-07-28

Family

ID=59999534

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020197032236A KR102281462B1 (ko) 2016-04-08 2018-04-05 전자 디스플레이 앞에 또는 위에 투사한 것처럼 보이는 가상의 3차원 이미지를 생성하는 시스템, 방법 및 소프트웨어

Country Status (21)

Country Link
US (1) US10136121B2 (ko)
EP (1) EP3607530B1 (ko)
JP (1) JP6810873B2 (ko)
KR (1) KR102281462B1 (ko)
CN (1) CN110915206B (ko)
AU (1) AU2018249563B2 (ko)
BR (1) BR112019020608A2 (ko)
CA (1) CA3057513C (ko)
CL (1) CL2019002812A1 (ko)
CO (1) CO2019012408A2 (ko)
CR (1) CR20190461A (ko)
DO (1) DOP2019000254A (ko)
EA (1) EA201992286A1 (ko)
IL (1) IL269726B (ko)
JO (1) JOP20190237A1 (ko)
NI (1) NI201900104A (ko)
PE (1) PE20191751A1 (ko)
PH (1) PH12019502289A1 (ko)
SG (1) SG11201909306YA (ko)
WO (1) WO2018187635A1 (ko)
ZA (1) ZA201906582B (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10230939B2 (en) 2016-04-08 2019-03-12 Maxx Media Group, LLC System, method and software for producing live video containing three-dimensional images that appear to project forward of or vertically above a display
US10469803B2 (en) 2016-04-08 2019-11-05 Maxx Media Group, LLC System and method for producing three-dimensional images from a live video production that appear to project forward of or vertically above an electronic display
US10475233B2 (en) 2016-04-08 2019-11-12 Maxx Media Group, LLC System, method and software for converting images captured by a light field camera into three-dimensional images that appear to extend vertically above or in front of a display medium
WO2018187724A1 (en) * 2017-04-06 2018-10-11 Maxx Media Group, LLC System, method and software for converting images captured by a light field camera into three-dimensional images that appear to extend vertically above or in front of a display medium
WO2018187646A1 (en) * 2017-04-06 2018-10-11 Maxx Media Group, LLC System, method and software for producing live video containing three-dimensional images that appear to project forward of or vertically above a display
WO2018187655A1 (en) * 2017-04-06 2018-10-11 Maxx Media Group, LLC System and method for producing three-dimensional images from a live video production that appear to project forward of or vertically above an electronic display
JP7349808B2 (ja) * 2019-03-20 2023-09-25 任天堂株式会社 画像表示システム、画像表示プログラム、画像表示装置、および画像表示方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3723904A (en) 1971-10-13 1973-03-27 Trw Inc Film mount and mask for a pair of panoramic stereoscopic images
JP3376023B2 (ja) 1993-06-01 2003-02-10 キヤノン株式会社 立体画像表示方法及び画像表示装置
JP3376868B2 (ja) 1997-08-11 2003-02-10 日産自動車株式会社 ナビゲーションシステムの立体地形表示方法、ナビゲーションシステム及び立体地形表示プログラムを記録した媒体
US6614427B1 (en) 1999-02-01 2003-09-02 Steve Aubrey Process for making stereoscopic images which are congruent with viewer space
US6389236B1 (en) * 2000-02-01 2002-05-14 Owen C. Western Anaglyph and method
US6591285B1 (en) 2000-06-16 2003-07-08 Shuo-Yen Robert Li Running-sum adder networks determined by recursive construction of multi-stage networks
US7321682B2 (en) * 2002-11-12 2008-01-22 Namco Bandai Games, Inc. Image generation system, image generation method, program, and information storage medium
JP3579683B2 (ja) * 2002-11-12 2004-10-20 株式会社ナムコ 立体視用印刷物の製造方法、立体視用印刷物
US7364300B2 (en) 2004-01-12 2008-04-29 Actuality Systems, Inc. Theta-parallax-only (TPO) displays
US7589759B1 (en) 2004-02-07 2009-09-15 Richard Stewart Freeman Vertical 3D imaging method
WO2007029686A1 (ja) * 2005-09-07 2007-03-15 Sharp Kabushiki Kaisha 立体画像記録再生システム
JP4468341B2 (ja) * 2006-09-28 2010-05-26 株式会社東芝 三次元画像表示方法および三次元画像表示装置
KR101094118B1 (ko) * 2006-11-29 2011-12-15 에프. 포스잣 후, 엘.엘.씨. 3차원 프로젝션 디스플레이
US8355019B2 (en) * 2007-11-02 2013-01-15 Dimension Technologies, Inc. 3D optical illusions from off-axis displays
JP2011060116A (ja) 2009-09-11 2011-03-24 Fujifilm Corp 画像処理装置
JP5263355B2 (ja) * 2010-09-22 2013-08-14 株式会社ニコン 画像表示装置及び撮像装置
JP2012156680A (ja) 2011-01-25 2012-08-16 Jvc Kenwood Corp 3d画像処理装置
JP2012256214A (ja) * 2011-06-09 2012-12-27 Sony Corp 情報処理装置、情報処理方法、およびプログラム
KR20150026373A (ko) * 2013-09-02 2015-03-11 엘지전자 주식회사 전자 기기 및 전자 기기의 제어 방법

Also Published As

Publication number Publication date
PE20191751A1 (es) 2019-12-12
CL2019002812A1 (es) 2020-03-13
CO2019012408A2 (es) 2020-01-17
JP6810873B2 (ja) 2021-01-13
AU2018249563B2 (en) 2020-07-23
EP3607530B1 (en) 2023-06-07
AU2018249563A1 (en) 2019-10-10
EA201992286A1 (ru) 2020-02-18
DOP2019000254A (es) 2019-12-15
EP3607530A1 (en) 2020-02-12
CN110915206B (zh) 2023-09-26
US10136121B2 (en) 2018-11-20
CR20190461A (es) 2020-01-22
EP3607530C0 (en) 2023-06-07
PH12019502289A1 (en) 2020-07-06
EP3607530A4 (en) 2020-03-25
JP2020520032A (ja) 2020-07-02
JOP20190237A1 (ar) 2017-06-16
CA3057513A1 (en) 2018-10-11
IL269726A (en) 2019-11-28
CA3057513C (en) 2021-06-15
CN110915206A (zh) 2020-03-24
ZA201906582B (en) 2022-03-30
NZ757902A (en) 2021-03-26
NI201900104A (es) 2020-04-02
SG11201909306YA (en) 2019-11-28
WO2018187635A1 (en) 2018-10-11
US20170294052A1 (en) 2017-10-12
IL269726B (en) 2022-02-01
KR20190134715A (ko) 2019-12-04
BR112019020608A2 (pt) 2020-04-22

Similar Documents

Publication Publication Date Title
KR102281462B1 (ko) 전자 디스플레이 앞에 또는 위에 투사한 것처럼 보이는 가상의 3차원 이미지를 생성하는 시스템, 방법 및 소프트웨어
US7983477B2 (en) Method and apparatus for generating a stereoscopic image
JP4707368B2 (ja) 立体視画像作成方法および装置
EP3712840A1 (en) Method and system for generating an image of a subject in a scene
US8711204B2 (en) Stereoscopic editing for video production, post-production and display adaptation
US9087406B2 (en) Automated stereoscopic computer-animation techniques for determining scaled stereo parameters
JP2008090617A (ja) 立体画像生成装置、方法およびプログラム
EP2342900A1 (en) Generation of occlusion data for image properties
TWI531212B (zh) 呈現立體影像之系統及方法
WO2012140397A2 (en) Three-dimensional display system
EP3057316B1 (en) Generation of three-dimensional imagery to supplement existing content
US10110876B1 (en) System and method for displaying images in 3-D stereo
Louis et al. Rendering stereoscopic augmented reality scenes with occlusions using depth from stereo and texture mapping
NZ757902B2 (en) System, method and software for producing virtual three dimensional images that appear to project forward of or above an electronic display
OA19355A (en) System, method and software for producing virtual three dimensional images that appear to project forward of or above an electronic display
US10475233B2 (en) System, method and software for converting images captured by a light field camera into three-dimensional images that appear to extend vertically above or in front of a display medium
KR101513999B1 (ko) 3차원 이미지 생성 장치
WO2018187724A1 (en) System, method and software for converting images captured by a light field camera into three-dimensional images that appear to extend vertically above or in front of a display medium
JP2005284183A (ja) 立体視画像作成方法および装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant