KR20120012858A - 3차원 그래픽 기반 단말기에서 객체 렌더링 장치 및 방법 - Google Patents

3차원 그래픽 기반 단말기에서 객체 렌더링 장치 및 방법 Download PDF

Info

Publication number
KR20120012858A
KR20120012858A KR1020100074844A KR20100074844A KR20120012858A KR 20120012858 A KR20120012858 A KR 20120012858A KR 1020100074844 A KR1020100074844 A KR 1020100074844A KR 20100074844 A KR20100074844 A KR 20100074844A KR 20120012858 A KR20120012858 A KR 20120012858A
Authority
KR
South Korea
Prior art keywords
frustum
binocular difference
rendering
selected object
binocular
Prior art date
Application number
KR1020100074844A
Other languages
English (en)
Other versions
KR101690034B1 (ko
Inventor
이상경
최광철
배형진
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020100074844A priority Critical patent/KR101690034B1/ko
Priority to US13/197,545 priority patent/US20120032951A1/en
Publication of KR20120012858A publication Critical patent/KR20120012858A/ko
Application granted granted Critical
Publication of KR101690034B1 publication Critical patent/KR101690034B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

본 발명은 3D 그래픽 기반 단말기에서 복시(diplopia) 효과 발생을 방지하기 위한 객체 렌더링 장치 및 방법에 관한 것이다. 본 발명에 따른 3차원 공간에 존재하는 객체별 정점 정보를 기반으로, 카메라 좌표계를 구성하는 과정과, 상기 구성된 카메라 좌표계를 기반으로 하여 좌 가상 카메라 시점을 중심으로 정의된 좌 절두체와 우 가상 카메라 시점을 중심으로 정의된 우 절두체에서, 하나의 객체를 선택하는 과정과, 상기 좌 절두체와 우 절두체에서 상기 선택된 객체의 정점을 각각 투영하여 양안차이를 결정하는 과정과, 상기 결정된 양안차이가 허용 가능한 양안차이보다 클 시, 좌 가상 카메라와 우 가상 카메라의 절두체 파라미터를 조절하는 과정을 포함하는 것을 특징으로 한다.

Description

3차원 그래픽 기반 단말기에서 객체 렌더링 장치 및 방법{APPARATUS AND METHOD FOR RENDERING OBJECT IN 3D GRAPHIC TERMINAL}
본 발명은 3차원(Dimension) 그래픽 기반 단말기에서 객체 렌더링 장치 및 방법에 관한 것으로서, 특히 3D 그래픽 기반 단말기에서 복시(diplopia) 효과 발생을 방지하기 위한 객체 렌더링 장치 및 방법에 관한 것이다. 본 발명에서 사용하는 3D 그래픽 기반 단말기란 입체 영상(stereoscopic, multiview) 출력이 가능한 단말기에서 3D 그래픽 기반 기술로 렌더링된 영상을 양안차 기반 입체영상으로 보일 수 있는 단말기를 뜻한다.
최근 들어, 가상 현실 시스템, 컴퓨터 게임 등이 급속하게 발달됨으로써, 컴퓨터 시스템을 이용하여 실제 세계의 객체(object) 및 지형(terrain) 등을 3차원으로 표현하기 위한 기술이 연구 및 개발되고 있다.
일반적으로, 사용자는 좌 안과 우 안을 통해 서로 다른 방향에서 대상 객체를 주시함으로써 입체감을 느낄 수 있다. 따라서, 2차원 평면 디스플레이 장치에서 좌 안과 우 안의 차이 즉, 양안차이가 반영된 두 장의 영상을 동시에 디스플레이 하게 될 경우, 사용자는 해당 영상을 3차원적으로 느끼게 된다.
이에 따라, 종래에는 가상 카메라를 이용하여 상기 양안차이가 반영된 두 장의 영상을 얻는 기법이 제공되고 있다. 즉, 일반적인 3D 그래픽 파이프라인(Pipeline)의 정점처리 단계에서 가상 카메라를 이용하여, 가상 카메라의 절두체(frustum) 파라미터 설정을 통해 가상 공간에서 양안차이를 발생시키고, 이를 기존 파이프라인 대로 렌더링하여 상기 양안차이가 반영된 두 장의 영상을 획득하는 방식이 제공되고 있다.
하지만, 상기와 같은 기법은 개발 과정에서 상기 가상 카메라의 절두체 파라미터가 고정되기 때문에, 실제로 다양한 가상 공간 크기를 갖는 3D 컨텐츠들 각각에 대해 적절한 양안차이를 적용하기 어려운 문제점이 있다. 이러한 문제는, 허용 가능한 양안차이보다 큰 양안차이가 적용된 두 장의 영상 출력으로 이어짐으로써, 복시(diplopia) 효과가 발생하여 사용자의 눈에 피로감을 줄 수 있으며, 심하게는 사용자의 시력 저하 및 두통을 유발할 수도 있다.
본 발명은 상술한 바와 같은 문제점을 해결하기 위해 도출된 것으로서, 본 발명의 목적은 3D 그래픽 기반 단말기에서 객체 렌더링 장치 및 방법을 제공함에 있다.
본 발명의 다른 목적은 3D 그래픽 기반 단말기에서 3D 그래픽 파이프라인의 정점처리 단계에서 대상 객체에 대한 가상 공간에서의 양안차이 분석을 통해 동적으로 가상 카메라의 절두체 파라미터를 조절하기 위한 객체 렌더링 장치 및 방법을 제공함에 있다.
본 발명의 또 다른 목적은 3D 그래픽 기반 단말기에서 3D 그래픽 파이프라인의 정점처리 단계에서 가상 공간에서의 양안차이가 허용 가능한 양안차이보다 큰 객체를 클리핑하거나 또는 눈의 피로감을 덜 느끼게 하는 렌더링 방식으로 렌더링하기 위한 객체 렌더링 장치 및 방법을 제공함에 있다.
상술한 목적들을 달성하기 위한 본 발명의 제 1 견지에 따르면, 3차원 그래픽 기반 단말기에서 객체 렌더링 방법은, 3차원 공간에 존재하는 객체별 정점 정보를 기반으로, 카메라 좌표계를 구성하는 과정과, 상기 구성된 카메라 좌표계를 기반으로 하여 좌 가상 카메라 시점을 중심으로 정의된 좌 절두체와 우 가상 카메라 시점을 중심으로 정의된 우 절두체에서, 하나의 객체를 선택하는 과정과, 상기 좌 절두체와 우 절두체에서 상기 선택된 객체의 정점을 각각 투영하여 양안차이를 결정하는 과정과, 상기 결정된 양안차이가 허용 가능한 양안차이보다 클 시, 좌 가상 카메라와 우 가상 카메라의 절두체 파라미터를 조절하는 과정을 포함하는 것을 특징으로 한다.
본 발명의 제 2 견지에 따르면, 3차원 그래픽 기반 단말기는, 3차원 공간에 존재하는 객체별 정점 정보를 기반으로, 카메라 좌표계를 구성하고, 상기 구성된 카메라 좌표계를 기반으로 하여 좌 가상 카메라 시점을 중심으로 정의된 좌 절두체와 우 가상 카메라 시점을 중심으로 정의된 우 절두체에서, 하나의 객체를 선택하며, 상기 좌 절두체와 우 절두체에서 상기 선택된 객체의 정점을 각각 투영하여 양안차이를 결정하는 양안차이 결정부와, 상기 결정된 양안차이가 허용 가능한 양안차이보다 클 시, 좌 가상 카메라와 우 가상 카메라의 절두체 파라미터를 조절하는 절두체 파라미터 변경부를 포함하는 것을 특징으로 한다.
본 발명은 3D 그래픽 기반 단말기에서 3D 그래픽 파이프라인의 정점처리 단계에서 대상 객체에 대한 가상 공간에서의 양안차이 분석을 통해 동적으로 가상 카메라의 절두체 파라미터를 조절하고, 가상 공간에서의 양안차이가 허용 가능한 양안차이보다 큰 객체를 클리핑하거나 또는 눈의 피로감을 덜 느끼게 하는 렌더링 방식으로 렌더링함으로써, 복시 효과의 발생을 방지하여 사용자 눈의 피로도를 줄일 수 있는 이점이 있다.
도 1은 본 발명에 따른 3D 그래픽 기반 단말기에서 3D 그래픽 파이프라인의 정점처리 단계를 도시한 도면,
도 2는 본 발명에 따른 3D 그래픽 기반 단말기에서 3D 그래픽 파이프라인의 정점처리 단계 중 카메라 좌표계로의 변환 단계에서 절두체 파라미터(특히, 근접 평면)를 동적으로 조절하기 위한 방법을 도시한 도면,
도 3은 본 발명에 따른 3D 그래픽 기반 단말기의 장치 구성을 도시한 블럭도,
도 4는 본 발명에 따른 3D 그래픽 기반 단말기에서 그래픽 처리부 내 정점 처리부의 상세 장치 구성을 도시한 블럭도, 및
도 5는 본 발명의 실시 예에 따른 3D 그래픽 기반 단말기에서 객체 렌더링 방법을 도시한 흐름도.
이하 첨부된 도면을 참조하여 본 발명의 동작 원리를 상세히 설명한다. 하기에서 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
이하 본 발명에서는 3D 그래픽 기반 단말기에서 복시(diplopia) 발생을 방지하기 위한 객체 렌더링 방안을 제시한다. 본 발명에서 사용하는 3D 그래픽 기반 단말기란 입체 영상(stereoscopic, multiview) 출력이 가능한 단말기에서 3D 그래픽 기반 기술로 렌더링된 영상을 양안차 기반 입체영상으로 보일 수 있는 단말기를 뜻한다.
이하 설명에서 단말기는 셀룰러 전화기(Cellular phone), 개인휴대통신 전화기(Personal Communication System : PCS), 복합무선단말기(Personal Data Assistant : PDA), IMT-2000(International Mobile Telecommunication-2000) 단말기, PC(Personer Computer), 노트북, TV(Television) 등을 모두 포함하는 의미이며, 이하 설명은 상기 예들의 일반적인 구성을 가지고 설명할 것이다.
도 1은 본 발명에 따른 3D 그래픽 기반 단말기에서 3D 그래픽 파이프라인의 정점처리 단계를 도시한 도면이다.
상기 도 1을 참조하면, 단말기는, 도 1의 (a)와 같이, 공간에 존재하는 객체별 정점 정보(즉, 좌표 정보)를 기반으로, 해당 객체의 중심을 좌표축의 중심으로 하는 객체 좌표계(Object coordinate 또는 Local coordinate)를 정의한다.
이후, 상기 단말기는, 도 1의 (b)와 같이, 상기 정의된 객체별 객체 좌표계를 기반으로, 공간 전체를 포괄하는 월드 좌표계(World coordinate)를 구성한다. 여기서, 상기 월드 좌표계는 공간 전체를 이루는 모든 객체의 객체 좌표계를 포함하여 3D 공간 내 각 객체의 위치를 나타낸다.
이후, 상기 단말기는, 도 1의 (c)와 같이, 상기 구성된 월드 좌표계를, 가상 카메라 시점을 중심으로 하는 카메라 좌표계(Camera coordinate 또는 Eye coordinate)로 변환하여, 공간 전체를 이루는 모든 객체 중 렌더링할 객체를 결정한다. 여기서, 가상 카메라(virtual camera)는 관찰자가 볼 수 있는 월드 좌표계의 일부분을 지정하기 위한 것으로, 2D 영상을 생성하기 위해 월드 좌표계의 어떤 부분이 필요한지를 결정하며, 월드 좌표계 내에 위치하여 보여질 공간의 부피, 즉 절두체(frustum)를 정의한다. 상기 절두체는 뷰 각도(view angle)와 근접 평면(near plane)(101), 원격 평면(far plane)(103) 등의 파라미터를 이용하여 정의되며, 각 파라미터 값은 컨텐츠 제작시 미리 설정된다. 여기서, 뷰 각도는 가상 카메라의 바라보는 각도를 의미한다. 근접 평면(101)과 원격 평면(103)은 Z축을 기준으로 가상 카메라 시점으로부터 미리 결정된 위치에 각각 존재하는 XY 평면으로, 렌더링할 객체들을 포함하는 공간을 결정한다. 상기 Z축은 가상 카메라 시점 방향, 즉 가상 카메라의 바라보는 방향을 의미한다. 여기서, 근접 평면(101)과 원격 평면(103) 사이의 공간에 포함되는 객체들은 이후 렌더링되고, 근접 평면(101)과 원격 평면(103) 사이의 공간에 포함되지 않은 객체들은 이후 클리핑(clipping)을 통해 제거 처리된다.
또한, 본 발명에 따라 상기 단말기는 좌 가상 카메라와 우 가상 카메라를 이용하여, 근접 평면(101)과 원격 평면(103) 사이의 공간에 포함되는 객체들을 대상으로 공간에서의 양안차이를 분석하고, 분석 결과에 따라 근접 평면(101)을 동적으로 조절하여 변경할 수 있다. 예를 들어, 상기 단말기는 근접 평면(101)과 원격 평면(103) 사이의 공간에 포함되는 객체들 중 근접 평면(101)에 가장 가까운 객체(104)의 정점이 투영되어 화면 상에 매핑되는 좌표 차이를 계산하여 해당 객체(104)의 양안차이를 결정할 수 있으며, 상기 결정된 양안차이가 허용 가능한 양안차이보다 큰 경우, 상기 객체(104)를 입체감을 느낄 수 없는 객체로 판단하여, 근접 평면(101)을, 허용 가능한 양안차이가 반영된 근접 평면'(102)으로 변경할 수 있다. 여기서, 근접 평면'(102)과 원격 평면(103) 사이의 공간에 포함되는 객체(105)는 이후 렌더링되며, 근접 평면(101)과 근접 평면'(102) 사이의 공간에 포함되는 객체(104)는 이후 클리핑을 통해 제거 처리되거나 또는 눈의 피로감을 덜 느끼게 하는 렌더링 방식으로 렌더링될 수 있다.
이후, 상기 단말기는, 도 1의 (d)와 같이, 상기 카메라 좌표계를 투영하여 클립 좌표계(Clip coordinate 또는 Projection coordinate)로 변환한다. 즉, 3D 공간을 2D 영상으로 변환하는 렌더링을 수행한다. 예를 들어, 상기 단말기는, 근접 평면(101)과 원격 평면(103) 사이의 공간에 포함되지 않은 객체에 대해 클리핑(clipping)을 통해 제거 처리하고, 근접 평면(101)과 근접 평면'(102) 사이의 공간에 포함되는 객체(104)에 대해 클리핑을 통해 제거 처리하거나 또는 눈의 피로감을 덜 느끼게 하는 렌더링 방식으로 렌더링을 수행할 수 있으며, 근접 평면'(102)과 원격 평면(103) 사이의 공간에 포함되는 객체(105)에 대해 렌더링을 수행할 수 있다.
도 2는 본 발명에 따른 3D 그래픽 기반 단말기에서 3D 그래픽 파이프라인의 정점처리 단계 중 카메라 좌표계로의 변환 단계에서 절두체 파라미터(특히, 근접 평면)를 동적으로 조절하기 위한 방법을 도시한 도면이다.
상기 도 2를 참조하면, 단말기는 월드 좌표계를 카메라 좌표계로 변환하여 공간 전체를 이루는 모든 객체 중 렌더링할 객체를 결정하며, 이를 위해 좌 가상 카메라 시점을 중심으로 하는 좌 절두체(201)와 우 가상 카메라 시점을 중심으로 하는 우 절두체(202)를 정의한다. 이때, 좌 절두체(201)와 우 절두체(202)에서, 근접 평면(203)과 원격 평면 사이의 공간에 포함되는 객체 A(205)는 투영되어 좌 화면(207)과 우 화면(208)과 같이 매핑되며, 좌 절두체(201)와 우 절두체(202)에서 양안차이(209)를 가지게 된다. 이 양안차이(209)가 허용 가능한 양안차이보다 큰 경우, 사용자는 입체감을 느끼지 못하고 복시 현상을 느끼게 된다. 이를 방지하기 위해, 절두체 파라미터 중 근접 평면(203)을, 허용 가능한 양안차이가 반영된 근접 평면'(204)으로 변경할 수 있다. 즉, 최종 양안 영상에 포함될 객체의 양안차이가 허용 가능한 양안차이보다 작거나 같아지도록 Z축 상에서의 근접 평면(203)의 위치를 변경할 수 있다.
이에 따라, 상기 단말기는 상기 카메라 좌표계를 투영하여 클립 좌표계로 변환하는 단계에서, 근접 평면(203)과 원격 평면 사이의 공간에 포함되지 않은 객체에 대해 클리핑(clipping)을 통해 제거 처리하고, 근접 평면(203)과 근접 평면'(204) 사이의 공간(210)에 포함되는 객체 A(205)에 대해 클리핑을 통해 제거 처리하거나 또는 눈의 피로감을 덜 느끼게 하는 렌더링 방식으로 렌더링을 수행할 수 있으며, 근접 평면'(204)과 원격 평면 사이의 공간(211)에 포함되는 객체 B(206)에 대해 렌더링을 수행할 수 있다. 예를 들어, 알파 블렌딩과 블러효과를 조합하여 근접 평면(203)과 근접 평면'(204) 사이의 공간(210)에 포함되는 객체 A(205)를 렌더링하면, 최종 양안 영상의 과도한 양안차이를 보완하면서 렌더링할 수 있다.
도 3은 본 발명에 따른 3D 그래픽 기반 단말기의 장치 구성을 도시한 블럭도이다.
도시된 바와 같이, 단말기는 제어부(300), 그래픽 처리부(302), 통신부(306), 입력부(308), 표시부(310), 메모리(312)를 포함하여 구성되며, 여기서 상기 그래픽 처리부(302)는 정점 처리부(304)를 포함하여 구성된다.
상기 도 3을 참조하면, 상기 제어부(300)는 단말기의 전반적인 동작을 제어하며, 본 발명에 따라, 3D 그래픽 기반 단말기에서 객체를 렌더링하기 위한 기능을 처리한다.
상기 그래픽 처리부(302)는 3차원 그래픽 데이터를 처리한다. 통상적인 기능에 더하여 본 발명에 따라 상기 그래픽 처리부(302)는 정점 처리부(304)를 구비하여 3D 그래픽 기반 객체 렌더링을 수행한다. 상기 정점 처리부(304)는 3D 그래픽 파이프라인(Pipeline)의 정점처리 단계를 수행한다. 즉, 상기 정점 처리부(304)는 공간에 존재하는 객체별 정점 정보(즉, 좌표 정보)를 기반으로, 해당 객체의 중심을 좌표축의 중심으로 하는 객체 좌표계를 정의하고, 상기 정의된 객체별 객체 좌표계를 기반으로, 공간 전체를 포괄하는 월드 좌표계를 구성한다. 이후, 상기 정점 처리부(304)는 상기 구성된 월드 좌표계를, 가상 카메라 시점을 중심으로 하는 카메라 좌표계로 변환하여, 공간 전체를 이루는 모든 객체 중 렌더링할 객체를 결정하고, 상기 카메라 좌표계를 투영하여 클립 좌표계로 변환함으로써 최종 양안 영상을 생성한다. 통상적인 기능에 더하여, 상기 정점 처리부(304)는 3D 그래픽 파이프라인의 정점처리 단계에서 대상 객체에 대한 가상 공간에서의 양안차이 분석을 통해 동적으로 가상 카메라의 절두체 파라미터를 조절한다. 또한, 상기 정점 처리부(304)는 가상 공간에서의 양안차이가 허용 가능한 양안차이보다 큰 객체를 클리핑하거나 또는 눈의 피로감을 덜 느끼게 하는 렌더링 방식으로 렌더링한다. 이후, 상기 정점 처리부(304)는 허용 가능한 양안차이를 가지는 최종 양안 영상을 제어부(300)를 통해 표시부(310)로 제공하며, 이에 따라 상기 표시부(310)는 양안 영상을 출력하여 입체감 있는 영상을 재생한다.
상기 통신부(306)는 송신되는 신호의 주파수를 상승변환 및 증폭하는 RF(Radio Frequency)송신기와, 수신되는 신호를 저잡음 증폭하고 주파수를 하강변환하는 RF수신기 등을 포함한다. 특히, 본 발명에 따라 상기 통신부(306)는 3D 컨텐츠의 실행을 위해 필요한 정보(예를 들어, 객체들의 위치정보 등)을 외부 망으로부터 수신하여 제어부(300)를 통해 그래픽 처리부(302)와 메모리(312)로 제공할 수 있다.
상기 입력부(308)는 숫자키 버튼과, 메뉴버튼(menu), 취소버튼(지움), 확인버튼 등 다수의 기능키들을 구비하며, 사용자가 누르는 키에 대응하는 키입력 데이터를 상기 제어부(300)로 제공한다. 여기서, 상기 입력부(308)에 의해 제공되는 키입력값은 상기 가상 카메라의 설정값(예, 위치값)을 변화시킨다.
상기 표시부(310)는 상기 단말기의 동작 중에 발생되는 상태 정보, 제한된 숫자의 문자들, 다량의 동영상 및 정지영상 등을 디스플레이한다. 특히, 상기 표시부(310)는 상기 처리된 3차원 그래픽 데이터를 디스플레이한다. 상기 표시부(310)는 칼라 액정 디스플레이 장치(Liquid Crystal Display : LCD)를 사용할 수 있다. 또한 입체 (stereoscopic, multiview) 영상 출력을 지원하는 물리적인 특성을 가지고 있는 장치이다.
상기 메모리(312)는 상기 제어부(300)의 처리 및 제어를 위한 프로그램의 마이크로코드와 각종 참조 데이터를 저장하고, 각종 프로그램 수행 중에 발생하는 일시적인 데이터를 저장한다. 특히, 본 발명에 따라 3D 그래픽 기반 단말기에서 객체를 렌더링하기 위한 프로그램을 저장한다. 또한, 상기 메모리(312)는 3D 컨텐츠의 실행을 위해 필요한 정보(예를 들어, 객체들의 위치정보 등)와 컨텐츠 제작시 설정된 절두체 파라미터 값을 저장하고, 이를 컨텐츠가 실행될 시 상기 그래픽 처리부(302)로 제공하며, 상기 그래픽 처리부(302)는 이를 이용하여 3D 그래픽 기반 객체 렌더링을 수행한다. 또한, 상기 메모리(312)는 허용 가능한 양안차이 값을 저장한다.
도 4는 본 발명에 따른 3D 그래픽 기반 단말기에서 그래픽 처리부 내 정점 처리부의 상세 장치 구성을 도시한 블럭도이다.
도시된 바와 같이, 상기 정점 처리부(400)는 양안차이 결정부(402), 절두체 파라미터 변경부(404), 렌더링부(406)를 포함하여 구성된다.
상기 도 4를 참조하면, 상기 양안차이 결정부(402)는 3D 그래픽 파이프라인의 정점처리 단계에서 대상 객체에 대한 가상 공간에서의 양안차이를 결정한다. 예를 들어, 상기 양안차이 결정부(402)는 카메라 좌표계 상의 객체 정점 정보를 기반으로, 좌 가상 카메라 시점을 중심으로 정의된 좌 절두체와 우 가상 카메라 시점을 중심으로 정의된 우 절두체에서, 근접 평면과 원격 평면 사이의 공간에 포함되는 객체의 정점을 투영하여 좌 화면과 우 화면 상에 각각 매핑하고, 좌 화면과 우 화면 상에 매핑된 좌표 차이를 계산하여 해당 객체의 양안차이를 결정한다.
상기 절두체 파라미터 변경부(404)는 상기 결정된 양안차이를 기반으로 동적으로 가상 카메라의 절두체 파라미터(특히, 근접 평면)를 조절한다. 즉, 상기 절두체 파라미터 변경부(404)는 상기 결정된 양안차이가 허용 가능한 양안차이보다 큰 경우, 근접 평면을, 허용 가능한 양안차이가 반영된 근접 평면으로 변경한다. 다시 말해, 최종 양안 영상에 포함될 객체의 양안차이가 허용 가능한 양안차이보다 작거나 같아지도록 Z축 상에서의 근접 평면의 위치를 변경한다. 이를 위해 상기 절두체 파라미터 변경부(404)는 기 결정된 거리만큼 Z축 상에서의 근접 평면의 위치를 변경하여 상기 양안차이 결정부(402)로 제공하고, 이와 같은 과정을 최종 양안 영상에 포함될 객체의 양안차이가 허용 가능한 양안차이보다 작거나 같아질 때까지 반복한다. 이후, 최종 양안 영상에 포함될 객체의 양안차이가 허용 가능한 양안차이보다 작거나 같아졌음이 판단되면, 상기 절두체 파라미터 변경부(404)는 최종 조절된 절두체 파라미터가 적용된 절두체를 출력한다.
상기 렌더링부(406)는 상기 절두체 파라미터 변경부(404)로부터의 절두체를 기반으로, 가상 공간에서의 양안차이가 허용 가능한 양안차이보다 큰 객체를 클리핑하거나 또는 눈의 피로감을 덜 느끼게 하는 렌더링 방식으로 렌더링한다. 즉, 절두체에서 조절 이전의 근접 평면과 최종 조절 이후의 근접 평면 사이의 공간에 포함되는 객체에 대해 클리핑을 통해 제거 처리하거나 또는 눈의 피로감을 덜 느끼게 하는 렌더링 방식(예를 들어, 알파 블렌딩과 블러효과)으로 렌더링을 수행한다. 또한, 상기 렌더링부(406)는 절두체에서 최종 조절 이후의 근접 평면과 원격 평면 사이의 공간에 포함되는 객체에 대해 렌더링을 수행하고, 조절 이전의 근접 평면과 원격 평면 사이의 공간에 포함되지 않은 객체에 대해 클리핑을 통해 제거 처리한다. 이로써, 상기 렌더링부(406)는 허용 가능한 양안차이를 가지는 최종 양안 영상을 출력할 수 있다.
도 5는 본 발명의 실시 예에 따른 3D 그래픽 기반 단말기에서 객체 렌더링 방법을 도시한 흐름도이다.
상기 도 5를 참조하면, 단말기는 501단계에서 공간에 존재하는 객체별 정점 정보(즉, 좌표 정보)를 기반으로, 해당 객체의 중심을 좌표축의 중심으로 하는 객체 좌표계를 정의한다.
이후, 상기 단말기는 503단계에서 상기 정의된 객체별 객체 좌표계를 기반으로, 공간 전체를 포괄하는 월드 좌표계를 구성한다.
이후, 상기 단말기는 505단계에서 상기 구성된 월드 좌표계를, 가상 카메라 시점을 중심으로 하는 카메라 좌표계로 변환한다.
이후, 상기 단말기는 507단계에서 상기 변환된 카메라 좌표계 상의 객체 정점 정보를 기반으로, 좌 가상 카메라 시점을 중심으로 정의된 좌 절두체와 우 가상 카메라 시점을 중심으로 정의된 우 절두체에서, 상기 좌 절두체와 우 절두체 내 기 선택되지 않은 객체 중 가상 카메라 시점에 가장 가까운 객체를 선택한다.
이후, 상기 단말기는 509단계에서 상기 선택된 객체가 절두체 파라미터 범위 밖에 존재하는지 여부를 검사한다. 즉, 근접 평면과 원격 평면이 사이의 공간에 포함되지 않는지 여부를 검사한다.
상기 509단계에서, 상기 선택된 객체가 절두체 파라미터 범위 밖에 존재하지 않음이 판단될 시, 상기 단말기는 511단계에서 상기 선택된 객체를 구성하는 정점을 투영하여 좌 화면과 우 화면 상에 매핑되는 좌표를 계산한다.
이후, 상기 단말기는 513단계에서 상기 계산된 좌 화면과 우 화면 상에 매핑되는 좌표를 기반으로 좌표 차이를 계산하여 해당 객체의 양안차이를 결정한다. 즉, 상기 계산된 좌 화면 상의 좌표와 우 화면 상의 좌표 간 차이를 이용하여 해당 객체의 양안차이를 결정한다.
이후, 상기 단말기는 515단계에서 상기 결정된 양안차이가 허용 가능한 양안차이보다 큰 지 여부를 검사한다.
상기 515단계에서, 상기 결정된 양안차이가 허용 가능한 양안차이보다 크지 않음이 판단될 시, 상기 단말기는 상기 선택된 객체를 입체감을 느낄 수 있는 객체로 판단하고, 517단계에서 절두체 파라미터의 변경 없이 개발자에 의해 기 정해진 방식으로 상기 선택된 객체를 렌더링한 후, 519단계로 진행한다.
반면, 상기 515단계에서, 상기 결정된 양안차이가 허용 가능한 양안차이보다 큼이 판단될 시, 상기 단말기는 상기 선택된 객체를 입체감을 느낄 수 없는 객체로 판단하고, 521단계에서 절두체 파라미터를 변경하며, 즉, 근접 평면을, 허용 가능한 양안차이가 반영된 근접 평면으로 변경하며, 523단계에서 상기 선택된 객체를 클리핑하거나 또는 눈의 피로감을 덜 느끼게 하는 별도의 렌더링 방식(예를 들어, 알파 블렌딩과 블러효과)으로 렌더링한 후, 상기 519단계로 진행한다.
반면, 상기 509단계에서, 상기 선택된 객체가 절두체 파라미터 범위 밖에 존재함이 판단될 시, 상기 단말기는 525단계에서 상기 선택된 객체를 클리핑하고, 상기 519단계로 진행한다.
이후, 상기 단말기는 상기 519단계에서 상기 좌 절두체와 우 절두체 내 기 선택되지 않은 객체가 존재하는지 여부를 검사한다.
상기 519단계에서, 상기 좌 절두체와 우 절두체 내 기 선택되지 않은 객체가 존재함이 판단될 시, 상기 단말기는 하나의 장면(Scene)에 나타날 객체가 모두 렌더링되지 않았음을 판단하고, 상기 507단계로 돌아가 이하 단계를 반복 수행한다.
반면, 상기 519단계에서, 상기 좌 절두체와 우 절두체 내 기 선택되지 않은 객체가 존재하지 않음이 판단될 시, 상기 단말기는 하나의 장면(Scene)에 나타날 객체가 모두 렌더링되어 하나의 장면이 완성되었음을 판단하고, 본 발명에 따른 알고리즘을 종료한다. 이로써, 상기 단말기는 허용 가능한 양안차이를 가지는 최종 양안 영상을 출력할 수 있다.
한편, 본 발명에서는 렌더링 기본 단위로서 객체를 설정한 경우를 가정하여 설명하였으나, 정점 3개로 구성된 폴리곤을 기본 단위로 설정할 수도 있다.
한편 본 발명의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 발명의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.
양안차이 결정부 402, 절두체 파라미터 변경부 404, 렌더링부 406

Claims (25)

  1. 3차원 공간에 존재하는 객체별 정점 정보를 기반으로, 카메라 좌표계를 구성하는 과정과,
    상기 구성된 카메라 좌표계를 기반으로 하여 좌 가상 카메라 시점을 중심으로 정의된 좌 절두체와 우 가상 카메라 시점을 중심으로 정의된 우 절두체에서, 하나의 객체를 선택하는 과정과,
    상기 좌 절두체와 우 절두체에서 상기 선택된 객체의 정점을 각각 투영하여 양안차이를 결정하는 과정과,
    상기 결정된 양안차이가 허용 가능한 양안차이보다 클 시, 좌 가상 카메라와 우 가상 카메라의 절두체 파라미터를 조절하는 과정을 포함하는 것을 특징으로 하는 3차원 그래픽 기반 단말기에서 객체 렌더링 방법.
  2. 제 1 항에 있어서, 상기 하나의 객체를 선택하는 과정은,
    상기 좌 절두체와 우 절두체 내 기 선택되지 않은 객체 중 좌 가상 카메라와 우 가상 카메라의 시점에 가장 가까운 객체를 선택하는 과정임을 특징으로 하는 3차원 그래픽 기반 단말기에서 객체 렌더링 방법.
  3. 제 1 항에 있어서,
    상기 선택된 객체가 절두체 파라미터 범위 밖에 존재하는지 여부를 검사하는 과정과,
    상기 선택된 객체가 절두체 파라미터 범위 밖에 존재함이 판단될 시, 상기 선택된 객체를 클리핑하는 과정을 더 포함하며,
    상기 양안차이 결정은, 상기 선택된 객체가 절두체 파라미터 범위 밖에 존재하지 않음이 판단되는 경우, 수행하는 것을 특징으로 하는 3차원 그래픽 기반 단말기에서 객체 렌더링 방법.
  4. 제 1 항에 있어서, 상기 양안차이를 결정하는 과정은,
    상기 좌 절두체와 우 절두체에서 상기 선택된 객체의 정점을 각각 투영하여 좌 화면과 우 화면 상에 매핑되는 좌표를 계산하는 과정과,
    상기 계산된 좌 화면 상의 좌표와 우 화면 상의 좌표 간 차이를 이용하여 양안차이를 결정하는 과정을 포함하는 것을 특징으로 하는 3차원 그래픽 기반 단말기에서 객체 렌더링 방법.
  5. 제 1 항에 있어서, 상기 절두체 파라미터를 조절하는 과정은,
    상기 절두체 파라미터를, 허용 가능한 양안차이가 반영된 절두체 파라미터로 변경하는 과정임을 특징으로 하는 3차원 그래픽 기반 단말기에서 객체 렌더링 방법.
  6. 제 1 항에 있어서,
    상기 선택된 객체를 클리핑하거나, 또는 기 정해진 렌더링 방식과 다른 별도의 렌더링 방식으로 상기 선택된 객체를 렌더링하는 과정을 더 포함하는 것을 특징으로 하는 3차원 그래픽 기반 단말기에서 객체 렌더링 방법.
  7. 제 6 항에 있어서,
    상기 별도의 렌더링 방식은 알파 블렌딩, 블러효과 중 적어도 하나임을 특징으로 하는 3차원 그래픽 기반 단말기에서 객체 렌더링 방법.
  8. 제 1 항에 있어서,
    상기 결정된 양안차이가 허용 가능한 양안차이보다 크지 않음이 판단될 시, 상기 절두체 파라미터의 변경 없이, 기 정해진 방식으로 상기 선택된 객체를 렌더링하는 과정을 더 포함하는 것을 특징으로 하는 3차원 그래픽 기반 단말기에서 객체 렌더링 방법.
  9. 3차원 공간에 존재하는 객체별 정점 정보를 기반으로, 카메라 좌표계를 구성하고, 상기 구성된 카메라 좌표계를 기반으로 하여 좌 가상 카메라 시점을 중심으로 정의된 좌 절두체와 우 가상 카메라 시점을 중심으로 정의된 우 절두체에서, 하나의 객체를 선택하며, 상기 좌 절두체와 우 절두체에서 상기 선택된 객체의 정점을 각각 투영하여 양안차이를 결정하는 양안차이 결정부와,
    상기 결정된 양안차이가 허용 가능한 양안차이보다 클 시, 좌 가상 카메라와 우 가상 카메라의 절두체 파라미터를 조절하는 절두체 파라미터 변경부를 포함하는 것을 특징으로 하는 3차원 그래픽 기반 단말기.
  10. 제 9 항에 있어서, 상기 양안차이 결정부는,
    상기 좌 절두체와 우 절두체 내 기 선택되지 않은 객체 중 좌 가상 카메라와 우 가상 카메라의 시점에 가장 가까운 객체를 선택하는 것을 특징으로 하는 3차원 그래픽 기반 단말기.
  11. 제 9 항에 있어서, 상기 양안차이 결정부는,
    상기 선택된 객체가 절두체 파라미터 범위 밖에 존재하는지 여부를 검사하고, 상기 선택된 객체가 절두체 파라미터 범위 밖에 존재함이 판단될 시, 렌더링부를 제어하여 상기 선택된 객체를 클리핑하며, 상기 선택된 객체가 절두체 파라미터 범위 밖에 존재하지 않음이 판단될 시, 상기 양안차이를 결정하는 것을 특징으로 하는 3차원 그래픽 기반 단말기.
  12. 제 9 항에 있어서, 상기 양안차이 결정부는,
    상기 좌 절두체와 우 절두체에서 상기 선택된 객체의 정점을 각각 투영하여 좌 화면과 우 화면 상에 매핑되는 좌표를 계산하고,
    상기 계산된 좌 화면 상의 좌표와 우 화면 상의 좌표 간 차이를 이용하여 양안차이를 결정하는 것을 특징으로 하는 3차원 그래픽 기반 단말기.
  13. 제 9 항에 있어서, 상기 절두체 파라미터 변경부는,
    상기 절두체 파라미터를, 허용 가능한 양안차이가 반영된 절두체 파라미터로 변경하는 것을 특징으로 하는 3차원 그래픽 기반 단말기.
  14. 제 9 항에 있어서,
    상기 선택된 객체를 클리핑하거나, 또는 기 정해진 렌더링 방식과 다른 별도의 렌더링 방식으로 상기 선택된 객체를 렌더링하는 렌더링부를 더 포함하는 것을 특징으로 하는 3차원 그래픽 기반 단말기.
  15. 제 14 항에 있어서,
    상기 별도의 렌더링 방식은 알파 블렌딩, 블러효과 중 적어도 하나임을 특징으로 하는 3차원 그래픽 기반 단말기.
  16. 제 9 항에 있어서,
    상기 결정된 양안차이가 허용 가능한 양안차이보다 크지 않음이 판단될 시, 상기 절두체 파라미터의 변경 없이, 기 정해진 방식으로 상기 선택된 객체를 렌더링하는 렌더링부를 더 포함하는 것을 특징으로 하는 3차원 그래픽 기반 단말기.
  17. 3차원 그래픽 데이터를 처리하는 그래픽 처리부와,
    여기서, 상기 그래픽 처리부는,
    3차원 공간에 존재하는 객체별 정점 정보를 기반으로, 카메라 좌표계를 구성하고, 상기 구성된 카메라 좌표계를 기반으로 하여 좌 가상 카메라 시점을 중심으로 정의된 좌 절두체와 우 가상 카메라 시점을 중심으로 정의된 우 절두체에서, 하나의 객체를 선택하며, 상기 좌 절두체와 우 절두체에서 상기 선택된 객체의 정점을 각각 투영하여 양안차이를 결정하는 양안차이 결정부와,
    상기 결정된 양안차이가 허용 가능한 양안차이보다 클 시, 좌 가상 카메라와 우 가상 카메라의 절두체 파라미터를 조절하는 절두체 파라미터 변경부를 포함하며,
    상기 처리된 3차원 그래픽 데이터를 디스플레이하는 표시부를 포함하는 것을 특징으로 하는 3차원 그래픽 기반 단말기.
  18. 제 17 항에 있어서, 상기 양안차이 결정부는,
    상기 좌 절두체와 우 절두체 내 기 선택되지 않은 객체 중 좌 가상 카메라와 우 가상 카메라의 시점에 가장 가까운 객체를 선택하는 것을 특징으로 하는 3차원 그래픽 기반 단말기.
  19. 제 17 항에 있어서, 상기 양안차이 결정부는,
    상기 선택된 객체가 절두체 파라미터 범위 밖에 존재하는지 여부를 검사하고, 상기 선택된 객체가 절두체 파라미터 범위 밖에 존재함이 판단될 시, 렌더링부를 제어하여 상기 선택된 객체를 클리핑하며, 상기 선택된 객체가 절두체 파라미터 범위 밖에 존재하지 않음이 판단될 시, 상기 양안차이를 결정하는 것을 특징으로 하는 3차원 그래픽 기반 단말기.
  20. 제 17 항에 있어서, 상기 양안차이 결정부는,
    상기 좌 절두체와 우 절두체에서 상기 선택된 객체의 정점을 각각 투영하여 좌 화면과 우 화면 상에 매핑되는 좌표를 계산하고,
    상기 계산된 좌 화면 상의 좌표와 우 화면 상의 좌표 간 차이를 이용하여 양안차이를 결정하는 것을 특징으로 하는 3차원 그래픽 기반 단말기.
  21. 제 17 항에 있어서, 상기 절두체 파라미터 변경부는,
    상기 절두체 파라미터를, 허용 가능한 양안차이가 반영된 절두체 파라미터로 변경하는 것을 특징으로 하는 3차원 그래픽 기반 단말기.
  22. 제 17 항에 있어서,
    상기 선택된 객체를 클리핑하거나, 또는 기 정해진 렌더링 방식과 다른 별도의 렌더링 방식으로 상기 선택된 객체를 렌더링하는 렌더링부를 더 포함하는 것을 특징으로 하는 3차원 그래픽 기반 단말기.
  23. 제 22 항에 있어서,
    상기 별도의 렌더링 방식은 알파 블렌딩, 블러효과 중 적어도 하나임을 특징으로 하는 3차원 그래픽 기반 단말기.
  24. 제 17 항에 있어서,
    상기 결정된 양안차이가 허용 가능한 양안차이보다 크지 않음이 판단될 시, 상기 절두체 파라미터의 변경 없이, 기 정해진 방식으로 상기 선택된 객체를 렌더링하는 렌더링부를 더 포함하는 것을 특징으로 하는 3차원 그래픽 기반 단말기.
  25. 3차원 그래픽 데이터를 처리하는 과정과,
    여기서, 3차원 그래픽 데이터를 처리하는 과정은,
    3차원 공간에 존재하는 객체별 정점 정보를 기반으로, 카메라 좌표계를 구성하는 과정과,
    상기 구성된 카메라 좌표계를 기반으로 하여 좌 가상 카메라 시점을 중심으로 정의된 좌 절두체와 우 가상 카메라 시점을 중심으로 정의된 우 절두체에서, 하나의 객체를 선택하는 과정과,
    상기 좌 절두체와 우 절두체에서 상기 선택된 객체의 정점을 각각 투영하여 양안차이를 결정하는 과정과,
    상기 결정된 양안차이가 허용 가능한 양안차이보다 클 시, 좌 가상 카메라와 우 가상 카메라의 절두체 파라미터를 조절하는 과정을 포함하며,
    상기 처리된 3차원 그래픽 데이터를 디스플레이하는 과정을 포함하는 것을 특징으로 하는 3차원 그래픽 기반 단말기에서 객체 렌더링 방법.
KR1020100074844A 2010-08-03 2010-08-03 3차원 그래픽 기반 단말기에서 객체 렌더링 장치 및 방법 KR101690034B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020100074844A KR101690034B1 (ko) 2010-08-03 2010-08-03 3차원 그래픽 기반 단말기에서 객체 렌더링 장치 및 방법
US13/197,545 US20120032951A1 (en) 2010-08-03 2011-08-03 Apparatus and method for rendering object in 3d graphic terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100074844A KR101690034B1 (ko) 2010-08-03 2010-08-03 3차원 그래픽 기반 단말기에서 객체 렌더링 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20120012858A true KR20120012858A (ko) 2012-02-13
KR101690034B1 KR101690034B1 (ko) 2016-12-28

Family

ID=45555812

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100074844A KR101690034B1 (ko) 2010-08-03 2010-08-03 3차원 그래픽 기반 단말기에서 객체 렌더링 장치 및 방법

Country Status (2)

Country Link
US (1) US20120032951A1 (ko)
KR (1) KR101690034B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10060999B2 (en) 2013-07-03 2018-08-28 Samsung Electronics Co., Ltd. Method and apparatus for measuring magnetic resonance signals
KR102454608B1 (ko) * 2022-01-21 2022-10-17 주식회사 삼우이머션 가상 현실 환경에서의 렌더링 방법

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130081569A (ko) * 2012-01-09 2013-07-17 삼성전자주식회사 3d 영상을 출력하기 위한 장치 및 방법
US10893488B2 (en) 2013-06-14 2021-01-12 Microsoft Technology Licensing, Llc Radio frequency (RF) power back-off optimization for specific absorption rate (SAR) compliance
US9785174B2 (en) 2014-10-03 2017-10-10 Microsoft Technology Licensing, Llc Predictive transmission power control for back-off
US10366536B2 (en) 2016-06-28 2019-07-30 Microsoft Technology Licensing, Llc Infinite far-field depth perception for near-field objects in virtual environments
CN106228605A (zh) * 2016-07-29 2016-12-14 东南大学 一种基于动态规划的立体匹配三维重建方法
KR20180041984A (ko) 2016-10-17 2018-04-25 삼성전자주식회사 이미지를 렌더링 하는 장치 및 방법
US10224974B2 (en) 2017-03-31 2019-03-05 Microsoft Technology Licensing, Llc Proximity-independent SAR mitigation
KR102061812B1 (ko) * 2018-10-16 2020-01-02 정진철 Vr 컨텐츠 제작 방법
US11595574B1 (en) * 2021-12-29 2023-02-28 Aspeed Technology Inc. Image processing system and method thereof for generating projection images based on inward or outward multiple-lens camera

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6774895B1 (en) * 2002-02-01 2004-08-10 Nvidia Corporation System and method for depth clamping in a hardware graphics pipeline
US20090160934A1 (en) * 2007-07-23 2009-06-25 Disney Enterprises, Inc. Generation of three-dimensional movies with improved depth control
US20100091093A1 (en) * 2008-10-03 2010-04-15 Real D Optimal depth mapping

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050219249A1 (en) * 2003-12-31 2005-10-06 Feng Xie Integrating particle rendering and three-dimensional geometry rendering
US9251621B2 (en) * 2008-08-14 2016-02-02 Reald Inc. Point reposition depth mapping
US8139935B2 (en) * 2010-03-31 2012-03-20 James Cameron 3D camera with foreground object distance sensing

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6774895B1 (en) * 2002-02-01 2004-08-10 Nvidia Corporation System and method for depth clamping in a hardware graphics pipeline
US20090160934A1 (en) * 2007-07-23 2009-06-25 Disney Enterprises, Inc. Generation of three-dimensional movies with improved depth control
US20100091093A1 (en) * 2008-10-03 2010-04-15 Real D Optimal depth mapping

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Modifying Stereoscopic Visualization Parameters, School of Information Technology and Electrical Engineering, University of Queensland(2002)* *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10060999B2 (en) 2013-07-03 2018-08-28 Samsung Electronics Co., Ltd. Method and apparatus for measuring magnetic resonance signals
KR102454608B1 (ko) * 2022-01-21 2022-10-17 주식회사 삼우이머션 가상 현실 환경에서의 렌더링 방법

Also Published As

Publication number Publication date
KR101690034B1 (ko) 2016-12-28
US20120032951A1 (en) 2012-02-09

Similar Documents

Publication Publication Date Title
KR101690034B1 (ko) 3차원 그래픽 기반 단말기에서 객체 렌더링 장치 및 방법
US11868675B2 (en) Methods and systems of automatic calibration for dynamic display configurations
EP3332565B1 (en) Mixed reality social interaction
US10506223B2 (en) Method, apparatus, and device for realizing virtual stereoscopic scene
CN103444190B (zh) 原生单像3d到立体3d的运行时转换
EP2944081B1 (en) Stereoscopic conversion of graphics content based on viewing orientation
US10999412B2 (en) Sharing mediated reality content
US10389995B2 (en) Apparatus and method for synthesizing additional information while rendering object in 3D graphic-based terminal
JP2002519792A (ja) ハードウェア・アクセラレーティド・レンダリング・アーキテクチャにおいて3dデータを変換するフィルタ
CN109725956B (zh) 一种场景渲染的方法以及相关装置
JP7392105B2 (ja) 没入型ビデオコンテンツをフォービエイテッドメッシュを用いてレンダリングするための方法、システム、および媒体
US20140285485A1 (en) Two-dimensional (2d)/three-dimensional (3d) image processing method and system
US10540824B1 (en) 3-D transitions
WO2013085513A1 (en) Graphics rendering technique for autostereoscopic three dimensional display
CN112017133B (zh) 一种图像展示方法、装置及电子设备
KR20190083464A (ko) 스크롤 입력에 기반하여 이미지 표시를 제어하는 전자 장치 및 방법
JP2013025715A (ja) 画像処理装置、画像処理方法、プログラム及び情報記憶媒体
CN108140357B (zh) 信息处理装置
CN117376591A (zh) 基于虚拟现实的场景切换处理方法、装置、设备及介质
CN114168063A (zh) 虚拟按键显示方法、头戴式显示设备和计算机可读介质

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20191128

Year of fee payment: 4