KR20150016324A - 3d 객체에 대한 시각적 안정감을 증가시키는 단말 및 단말의 제어방법 - Google Patents
3d 객체에 대한 시각적 안정감을 증가시키는 단말 및 단말의 제어방법 Download PDFInfo
- Publication number
- KR20150016324A KR20150016324A KR1020147034901A KR20147034901A KR20150016324A KR 20150016324 A KR20150016324 A KR 20150016324A KR 1020147034901 A KR1020147034901 A KR 1020147034901A KR 20147034901 A KR20147034901 A KR 20147034901A KR 20150016324 A KR20150016324 A KR 20150016324A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- specific
- screen
- terminal
- depth
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Processing Or Creating Images (AREA)
- Controls And Circuits For Display Device (AREA)
- Computer Graphics (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
Abstract
본 명세서는, 3D 객체에 대한 시각적 안정감을 증가시키는 단말 및 단말의 제어방법을 제공한다.
이를 위해 본 명세서에 개시된 일 실시 예에 따른 단말의 제어방법은, 3D 컨텐츠를 상기 단말의 화면에 표시하는 단계, 상기 3D 컨텐츠가 포함하는 특정 3D 객체가 상기 화면상의 특정 방향으로 이동하는 경우, 상기 특정 3D 객체의 렌더링 방식을 변경하는 단계 및 상기 변경된 렌더링 방식으로 상기 특정 3D 객체를 상기 화면에 표시하는 단계를 포함할 수 있다.
이를 위해 본 명세서에 개시된 일 실시 예에 따른 단말의 제어방법은, 3D 컨텐츠를 상기 단말의 화면에 표시하는 단계, 상기 3D 컨텐츠가 포함하는 특정 3D 객체가 상기 화면상의 특정 방향으로 이동하는 경우, 상기 특정 3D 객체의 렌더링 방식을 변경하는 단계 및 상기 변경된 렌더링 방식으로 상기 특정 3D 객체를 상기 화면에 표시하는 단계를 포함할 수 있다.
Description
본 명세서는 3D 객체에 대한 시각적 안정감을 증가시키는 단말 및 단말의 제어방법에 관한 것이다.
대부분의 입체 영상물과 영상 디스플레이 도구는 양안 시차의 특성을 활용한 것이다. 그리고 입체 영상을 획득하는 방법 중 실사영상은 주로 두 개의 입사 렌즈를 가진 스테레오-카메라로 구현되며, 3D 컴퓨터 그래픽(CG)의 경우도 실사 카메라를 사용하는 것과 같은 원리로, 기존 2D-디스플레이에 사용되는 3D CG가 하나의 가상의 카메라를 사용하여 작업을 하는 반면, 입체영상의 경우 2대 이상의 가상의 카메라를 사용하여 영상을 구성하고, 각각의 카메라에서 출력되는 영상을 디스플레이 구조에 적합하게 합성하여 3D 영상물을 구성할 수 있다. 또는 기존에 존재하는 2개 이상의 영상(또는 이미지)를 합성하여 3D 영상(또는 이미지) 내지 그래픽 오브젝트(또는 3D 객체)를 생성할 수 있다.
디스플레이 화면상에 표시된 좌안과 우안 영상이 각각 인간의 좌측 눈과 우측 눈으로 분리 되어 입력되었을 때, 인간 지각에서는 인지된 3D 영상(Perceived 3D Image)의 위치에 사물이 떠 있는 것 같이 인지하게 될 수 있다.
이때 사람의 양안과 인지 3D영상과의 거리를 주시거리라고 하는데, 이때, 주시 거리는 디스플레이 화면상의 좌안과 우안 영상간의 이격 거리(Disparity)에 반비례하게 된다. 결국 3D 입체영상 (특히, 스테레오 3D영상)의 경우 좌안과 우안에 해당하는 영상 내의 물체들의 디스패리티(disparity)를 조정하므로써, 물체의 깊이 감을 조정할 수 있다.
그러나 현재 개발되는 대부분의 입체 영상물의 경우, 디스패리티가 고정되어 있어 적정 주시거리가 정해져 있으며 적정 주시 거리와 벗어난 위치에서 입체영상 디스플레이를 시청하게 되면 시각적 불편함을 느낄 수 있다.
본 명세서는 3D 객체에 대한 시각적 안정감을 증가시키는 단말 및 단말의 제어방법을 제공하는 것을 그 기술적 과제로 한다.
상기 목적들을 달성하기 위한 본 명세서에 따른 단말의 제어방법은, 3D 컨텐츠를 제공함에 있어서, 상기 3D 컨텐츠를 상기 단말의 화면에 표시하는 단계; 상기 3D 컨텐츠가 포함하는 특정 3D 객체가 상기 화면상의 특정 방향으로 이동하는 경우, 상기 특정 3D 객체의 렌더링 방식을 변경하는 단계; 및 상기 변경된 렌더링 방식으로 상기 특정 3D 객체를 상기 화면에 표시하는 단계를 포함할 수 있다.
본 명세서와 관련된 일 예로서, 상기 3D 컨텐츠는, 3D 웹-페이지(web-page)인 것일 수 있다.
본 명세서와 관련된 일 예로서, 상기 특정 방향은, 상기 특정 3D 객체의 이동 전 위치로부터 상기 화면상의 에지(edge)를 향하는 방향인 것일 수 있다.
본 명세서와 관련된 일 예로서, 상기 렌더링 방식의 변경은, 상기 특정 3D 객체의 화면상의 위치를 근거로 상기 특정 3D 객체의 이미지 깊이(depth)를 변경함에 의해 이루어지는 것일 수 있다.
본 명세서와 관련된 일 예로서, 상기 이미지 깊이는, 상기 특정 3D 객체의 화면상의 위치가 상기 화면의 에지에 근접하는 경우, 감소되는 것일 수 있다.
본 명세서와 관련된 일 예로서, 상기 렌더링 방식을 변경하는 단계는, 상기 특정 3D 객체의 이동을 근거로 상기 특정 3D 객체가 기준영역을 벗어나는지 여부를 판단하는 단계; 및 상기 특정 3D 객체가 상기 기준영역을 벗어나는 경우, 상기 렌더링 방식을 변경하는 단계를 포함할 수 있다.
본 명세서와 관련된 일 예로서, 상기 기준영역은, 상기 단말의 사용자의 시각적 피로도를 근거로 결정되는 것일 수 있다.
본 명세서와 관련된 일 예로서, 상기 렌더링 방식은, 상기 특정 3D 객체에 포함되는 제 1 이미지 및 제 2 이미지를 근거로 3D 효과가 구현되는 방식이되, 상기 제 1 이미지 및 제 2 이미지의 각 이미지 중심은, 상기 특정 3D 객체의 이미지 깊이에 해당하는 거리만큼 이격되어 상기 화면상에 위치하는 것일 수 있다.
본 명세서와 관련된 일 예로서, 상기 제 1 이미지의 이미지 중심은, 상기 제 2 이미지의 이미지 중심 보다 상기 화면의 에지에 더 인접한 것일 수 있다.
본 명세서와 관련된 일 예로서, 상기 렌더링 방식을 변경하는 단계는, 상기 특정 3D 객체의 이동으로 인해 상기 제 1 이미지의 일부 영역이 상기 화면 밖으로 벗어나야 되는지 판단하는 단계; 상기 일부 영역이 상기 화면 밖으로 벗어나야 되는 경우, 상기 특정 3D 객체의 렌더링 방식을 변경하는 단계를 포함할 수 있다.
본 명세서와 관련된 일 예로서, 상기 렌더링 방식의 변경은, 상기 특정 3D 객체의 이미지 깊이를 감소시킴에 의해 이루어지는 것일 수 있다.
본 명세서와 관련된 일 예로서, 상기 일부 영역은, 상기 이미지 깊이의 감소를 근거로 상기 화면 내에 위치하는 것일 수 있다.
본 명세서와 관련된 일 예로서, 상기 렌더링 방식의 변경은, 상기 제 2 이미지 중 상기 제 1 이미지의 일부 영역에 대응되는 영역을 상기 화면에 표시하지 않음에 의해 이루어지는 것일 수 있다.
상기 목적들을 달성하기 위한 본 명세서에 따른 단말은, 3D 컨텐츠를 화면에 표시하는 디스플레이부; 상기 3D 컨텐츠가 포함하는 특정 3D 객체가 상기 화면상의 특정 방향으로 이동하는 경우, 상기 특정 3D 객체의 렌더링 방식을 변경하고, 상기 변경된 렌더링 방식으로 상기 특정 3D 객체가 상기 화면에 표시되도록 상기 디스플레이부를 제어하는 제어부를 포함할 수 있다.
본 명세서와 관련된 일 예로서, 상기 특정 방향은, 상기 특정 3D 객체의 이동 전 위치로부터 상기 화면상의 에지(edge)를 향하는 방향인 것일 수 있다.
본 명세서와 관련된 일 예로서, 상기 렌더링 방식의 변경은, 상기 특정 3D 객체의 화면상의 위치를 근거로 상기 특정 3D 객체의 이미지 깊이(depth)를 변경함에 의해 이루어지는 것일 수 있다.
본 명세서와 관련된 일 예로서, 상기 렌더링 방식은, 상기 특정 3D 객체에 포함되는 제 1 이미지 및 제 2 이미지를 근거로 3D 효과가 구현되는 방식이되, 상기 제 1 이미지 및 제 2 이미지의 각 이미지 중심은, 상기 특정 3D 객체의 이미지 깊이에 해당하는 거리만큼 이격되어 상기 화면상에 위치하는 것일 수 있다.
본 명세서와 관련된 일 예로서, 상기 렌더링 방식은, 상기 특정 3D 객체의 이동으로 인해 상기 제 1 이미지의 일부 영역이 상기 화면 밖으로 벗어나야 되는 경우에 변경되는 것일 수 있다.
본 명세서와 관련된 일 예로서, 상기 렌더링 방식의 변경은, 상기 특정 3D 객체의 이미지 깊이를 감소시킴에 의해 이루어지는 것일 수 있다.
본 명세서와 관련된 일 예로서, 상기 렌더링 방식의 변경은, 상기 제 2 이미지 중 상기 제 1 이미지의 일부 영역에 대응되는 영역을 상기 화면에 표시하지 않음에 의해 이루어지는 것일 수 있다.
본 명세서에 개시된 일 실시 예에 따르면, 3D 객체에 대한 시각적 안정감을 증가시키는 단말 및 단말의 제어방법을 제공한다.
본 명세서에 개시된 단말 및 단말의 제어방법에 따르면, 3D 객체가 단말의 화면상에서 이동하는 경우, 상기 이동의 위치에 근거하여 상기 3D 객체에 대한 렌더링 방식을 변경함으로써 상기 3D 객체에 대한 시각적 안정감이 증대되는 이점이 있다.
도 1은 본 명세서에 개시된 실시예들에 따른 단말의 구성을 나타내는 블럭도이다.
도 2는 본 명세서에 개시된 실시예들에 따른 단말의 제어방법을 나타내는 순서도이다.
도 3은 본 명세서에 개시된 제 1 실시예에 따른 단말의 제어방법에 있어서의 안정 영역을 나타내는 예시도이다.
도 4는 본 명세서에 개시된 제 1 실시예에 따른 단말의 제어방법을 나타내는 순서도이다.
도 5는 본 명세서에 개시된 제 1 실시예에 다른 단말의 제어방법을 나타내는 예시도이다.
도 6은 본 명세서에 개시된 제 2 실시예에 따른 단말의 제어방법의 필요성을 나타내는 개념도이다.
도 7은 본 명세서에 개시된 제 2 실시예에 따른 단말의 제어방법을 나타내는 순서도이다.
도 8은 본 명세서에 개시된 제 2 실시예에 따른 단말의 제어방법을 나타내는 예시도이다.
도 9는 본 명세서에 개시된 제 3 실시예에 따른 단말의 제어방법을 나타내는 순서도이다.
도 10은 본 명세서에 개시된 제 3 실시예에 따른 단말의 제어방법을 나타내는 예시도이다.
도 11은 단말이 제공하는 3D 컨텐츠인 3D 웹-페이지의 렌더링 방법을 나타내는 개념도이다.
도 2는 본 명세서에 개시된 실시예들에 따른 단말의 제어방법을 나타내는 순서도이다.
도 3은 본 명세서에 개시된 제 1 실시예에 따른 단말의 제어방법에 있어서의 안정 영역을 나타내는 예시도이다.
도 4는 본 명세서에 개시된 제 1 실시예에 따른 단말의 제어방법을 나타내는 순서도이다.
도 5는 본 명세서에 개시된 제 1 실시예에 다른 단말의 제어방법을 나타내는 예시도이다.
도 6은 본 명세서에 개시된 제 2 실시예에 따른 단말의 제어방법의 필요성을 나타내는 개념도이다.
도 7은 본 명세서에 개시된 제 2 실시예에 따른 단말의 제어방법을 나타내는 순서도이다.
도 8은 본 명세서에 개시된 제 2 실시예에 따른 단말의 제어방법을 나타내는 예시도이다.
도 9는 본 명세서에 개시된 제 3 실시예에 따른 단말의 제어방법을 나타내는 순서도이다.
도 10은 본 명세서에 개시된 제 3 실시예에 따른 단말의 제어방법을 나타내는 예시도이다.
도 11은 단말이 제공하는 3D 컨텐츠인 3D 웹-페이지의 렌더링 방법을 나타내는 개념도이다.
본 명세서에 개시된 기술은 3D 컨텐츠를 제공하는 단말에 적용될 수 있다. 그러나 본 명세서에 개시된 기술은 이에 한정되지 않고, 상기 기술의 기술적 사상이 적용될 수 있는 모든 영상표시기기, 멀티미디어 기기, 장비 및 그 제어방법에도 적용될 수 있다.
예를 들어, 본 명세서에 개시된 기술은, 스마트 폰(Smart Phone), 휴대 단말기(Portable Terminal), 이동 단말기(Mobile Terminal), 개인 정보 단말기(Personal Digital Assistant : PDA), PMP(Portable Multimedia Player) 단말기, 노트북 컴퓨터, 와이브로(Wibro) 단말기, IPTV(Internet Protocol Television) 단말기, 디지털방송용 단말기, 텔레매틱스(Telematics) 단말기, 내비게이션(Navigation) 단말기, AVN(Audio Video Navigation) 단말기, 텔레비전(Television), 3D 텔레비전, A/V(Audio/Video) 시스템, 홈 시어터(Home Theater) 시스템, 정보 제공 센터, 콜 센터(call center) 등과 같은 다양한 단말기에 적용될 수 있다.
상기 3D 컨텐츠는, 3D 효과를 발생시키는 다양한 3D(또는 3차원) 이미지(또는 입체 영상) 또는 3D 객체를 포함할 수 있다.
구체적으로 3차원(3D) 입체 영상에 대해 상술하면, 일반적으로 3차원 입체 영상(3-dimensional stereoscopic image, 이하 3D 영상으로 약칭 함)은 모니터 또는 스크린 상에서 사물이 위치하는 깊이(depth)와 실제감(reality)을 현실 공간과 동일하게 느낄 수 있도록 한 영상(또는 이미지)일 수 있다.
3차원 입체 영상은 양안시차(binocular disparity)를 이용하여 구현될 수 있다. 상기 양안시차란 서로 떨어져 있는 두 눈에 의해 형성되는 시차(視差)를 말한다. 따라서, 두 눈이 서로 다른 2차원 화상을 보고 그 화상들이 망막을 통하여 뇌로 전달되어 융합되면 사용자는 입체 영상의 깊이 및 실제감을 느낄 수 있게 된다.
상기 3D 영상은 스테레오스코픽 방식(안경 방식), 오토 스테레오스코픽 방식(무안경 방식) 및 프로젝션 방식(홀로그래픽 방식) 등의 디스플레이 방식에 의해 표시될 수 있다. 상기 스테레오스코픽 방식은 보통 가정용 텔레비전 수신기 등에 많이 이용되며 휘스톤 스테레오스코프 방식 등이 포함된다. 상기 오토 스테레오스코픽 방식은 이동 단말기 등에 많이 이용되는 디스플레이 방식으로, 오토 스테레오스코픽 방식에는 패럴렉스 배리어(parallex barrier) 방식 및 렌티큘러 (lenticular) 방식을 포함한다. 또한, 프로젝션 방식에는 반사형 홀로그래픽 방식, 투과형 홀로그래픽 방식 등이 있다.
구체적으로 3D 영상의 생성 및 디스플레이에 대해 상술하면, 일반적으로 3D 영상은 좌 영상(좌안용 영상)과 우 영상(우안용 영상)으로 구성된다. 상기 좌 영상과 우 영상이 3차원 입체 영상으로 합쳐지는 방식에 따라, 상기 좌 우 영상을 한 프레임내에서 상하로 배치하는 탑-다운(top-down) 방식, 좌우로 배치하는 L-to-R(left-to-right, side by side) 방식, 상기 좌우 영상의 조각들을 타일 형태로 배치하는 체커 보드(checker board) 방식, 좌우 영상을 열 단위 또는 행 단위로 번갈아 배치하는 인터레이스드(interlaced) 방식, 그리고 좌우 영상을 시간 별로 번갈아 표시하는 시분할(time sequential, frame by frame) 방식 등으로 나뉜다.
상기 3D 이미지(또는 영상) 또는 3D 객체에 대한 3D 효과가 발생되는 원인은 상기 상기 3D 이미지 또는 3D 객체의 깊이(depth, 또는 깊이감)가 존재하기 때문일 수 있다.
상기 깊이(depth)는 디스패러티(disparity)라고도 불릴 수 있다.
구체적으로 상기 3D 영상의 깊이감(Depth, 또는 깊이)에 대해 상술하면, 3D 영상에서 깊이감(depth)(또는 depth value)은 영상내의 사물들 간의 3차원 거리 차이를 나타내는 지표를 의미한다. 상기 깊이감(depth)은 256 레벨(최대값이 255~최소값)로 정의되며 높은 값을 가질수록 시청자 또는 사용자와 가까운 곳을 나타낸다. 따라서, 3D 영상에서 깊이감을 조정한다는 의미는 3D 영상이 원래의 크기로 표시되는 경우에는 원래의 깊이감으로 표시되고, 그 컨텐츠가 작은 이미지로 표시되는 경우에는 원래보다 낮은 깊이감으로 조정하는 것을 의미한다.
예를 들어, 깊이감(depth)이 256 레벨로 정의되어 최대값이 255, 최소값이 0인 경우, 3D 영상을 원래 크기대로 표시하는 경우에는 깊이감을 255로 조절하고, 원래 보다 작은 크기로 표시하는 경우에는 255보다 작은 값으로 조절한다.
본 명세서에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 명세서에 개시된 기술의 사상을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 명세서에서 사용되는 기술적 용어는 본 명세서에서 특별히 다른 의미로 정의되지 않는 한, 본 명세서에 개시된 기술이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 명세서에서 사용되는 기술적인 용어가 본 명세서에 개시된 기술의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 명세서에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.
또한, 본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "구성된다" 또는 "포함한다" 등의 용어는 명세서상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.
또한, 본 명세서에서 사용되는 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예들을 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
또한, 본 명세서에 개시된 기술을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 기술의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 기술의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 그 기술의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.
본 명세서에 개시된
실시예들에
따른 단말에 대한 설명
본 명세서에 개시된 실시예들에 따른 단말은, 3D 컨텐츠를 화면에 표시하는 디스플레이부, 상기 3D 컨텐츠가 포함하는 특정 3D 객체가 상기 화면상의 특정 방향으로 이동하는 경우, 상기 특정 3D 객체의 렌더링 방식을 변경하고, 상기 변경된 렌더링 방식으로 상기 특정 3D 객체가 상기 화면에 표시되도록 상기 디스플레이부를 제어하는 제어부를 포함할 수 있다.
도 1은 본 명세서에 개시된 실시예들에 따른 단말의 구성을 나타내는 블럭도이다.
도 1을 참조하면, 본 명세서에 개시된 실시예들에 따른 단말(100)은, 제어부(110), 디스플레이부(120)를 포함할 수 있다.
또한, 일 실시예에 따른 단말(100)은, 3D 객체에 대한 시각적 안정감을 증가시키기 위해 사용되는 다양한 정보를 저장하는 메모리부(130)를 더 포함할 수 있다.
이외에도 상기 단말(100)은 3D 객체에 대한 시각적 안정감을 증가시키기 위한 다양한 구성요소를 더 포함할 수 있다.
도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 상기 단말(100)이 구현될 수도 있다.
이하, 상기 구성요소들에 대해 차례로 살펴본다.
상기 제어부(110)는 3D 객체에 대한 시각적 안정감을 증가시키는 기능을 제공하기 위한 다양한 기능을 할 수 있다.
기본적으로, 상기 제어부(110)는 3D 객체에 대한 시각적 안정감을 증가시키기 위해 상기 단말(100)의 구성요소들을 제어하는 역할을 할 수 있다.
또한, 상기 제어부(110)는, 상기 단말(100)의 화면에 표시되는 3D 컨텐츠에 포함되는 특정 3D 객체가 상기 화면상의 특정 방향으로 이동하는지 판단할 수 있다.
일 실시예에 따르면, 상기 특정 방향은 상기 특정 3D 객체의 이동 전 위치로부터 상기 화면상의 에지(edge)를 향하는 방향일 수 있다.
또한, 상기 제어부(110)는 상기 특정 3D 객체가 특정 방향으로 이동하는 경우, 상기 특정 3D 객체의 렌더링 방식을 변경할 수 있다.
일 실시예에 따르면, 상기 렌더링 방식은, 상기 특정 3D 객체에 포함되는 제 1 이미지 및 제 2 이미지를 근거로 3D 효과가 구현되는 방식이되, 상기 제 1 이미지 및 제 2 이미지의 각 이미지 중심은, 상기 특정 3D 객체의 이미지 깊이에 해당하는 거리만큼 이격되어 상기 화면상에 위치하는 것일 수 있다.
예를 들어, 상기 제 1 이미지 및 상기 제 2 이미지는, 3D 효과가 발생되도록 하는 상기 3D 객체의 좌, 우 이미지(예를 들어, 좌 영상(좌안용 영상)과 우 영상(우안용 영상))일 수 있다.
또한, 일 실시예에 따르면, 상기 렌더링 방식의 변경은, 상기 특정 3D 객체의 화면상의 위치를 근거로 상기 특정 3D 객체의 이미지 깊이(depth)를 변경함에 의해 이루어지는 것일 수 있다.
예를 들어, 상기 렌더링 방식의 변경은, 상기 특정 3D 객체가 상기 화면의 에지에 근접하는 경우, 상기 특정 3D 객체의 이미지 깊이를 감소시킴에 의해 이루어질 수 있다.
상기 제어부(110)는 상기 변경된 렌더링 방식으로 상기 특정 3D 객체가 상기 화면에 표시되도록 상기 디스플레이부(120)를 제어할 수 있다.
상기 디스플레이부(120)는, 상기 단말(100)에서 처리되는 정보를 표시(또는, 출력)하는 역할을 할 수 있다. 상기 정보는 특정 화면에 표시 또는 출력될 수 있다.
또한, 상기 디스플레이부(120)는 상기 단말이 특정 기능을 수행하는 경우, 상기 특정 기능과 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시할 수 있다.
본 명세서에 개시된 일 실시예에 따르면, 상기 디스플레이부(120)는 상기 단말(100)이 제공하는 3D 컨텐츠를 표시할 수 있다. 또한, 상기 디스플레이부(120)는 상기 3D 컨텐츠가 포함하는 3D 이미지 내지 3D 객체등 다양한 그래픽 오브젝트(Graphic Object)들을 표시할 수 있다.
상기 디스플레이부(120)는, 액정 디스플레이(Liquid Crystal Display : LCD), 박막 트랜지스터 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display : TFT LCD), 유기 발광 다이오드(Organic Light-Emitting Diode : OLED), 플렉시블 디스플레이(Flexible Display), 3차원 디스플레이(3D Display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.
이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광 투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다. 디스플레이부(120)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 단말기 바디의 디스플레이부(120)가 차지하는 영역을 통해 단말기 바디의 후방에 위치한 사물을 볼 수 있다.
디스플레이부(120)에는 다양한 종류의 시각 정보들이 표시될 수 있다. 이들 정보들은 문자, 숫자, 기호, 그래픽, 또는 아이콘 등의 형태로 표시될 수 있으며, 3차원 입체영상으로 이루어질 수 있다.
디스플레이부(120)는 전체 영역으로 작동되거나, 복수의 영역들로 나뉘어져 작동될 수 있다. 후자의 경우, 상기 복수의 영역들은 서로 연관되게 작동되도록 구성될 수 있다.
예를 들어, 디스플레이부(120)의 상부와 하부에는 출력창과 입력창이 각각 표시될 수 있다. 출력창과 입력창은 각각 정보의 출력 또는 입력을 위해 할당되는 영역일 수 있다. 입력창에는 전화 번호 등의 입력을 위한 숫자가 표시된 소프트키가 출력될 수 있다. 소프트키가 터치되면, 터치된 소프트키에 대응되는 숫자 등이 출력창에 표시된다. 조작 유닛이 조작되면 출력창에 표시된 전화번호에 대한 호 연결이 시도되거나 출력창에 표시된 텍스트가 애플리케이션에 입력될 수 있다.
상기 디스플레이부(120)는 스크롤(scroll)에 의해 터치 입력 받도록 구성될 수 있다. 사용자는 디스플레이부(120)를 스크롤 함으로써 디스플레이부(120)에 표시된 개체, 예를 들어 아이콘 등에 위치한 커서 또는 포인터를 이동시킬 수 있다. 나아가, 손가락을 디스플레이부(120) 상에서 이동시키는 경우, 손가락이 움직이는 경로가 디스플레이부(120)에 시각적으로 표시될 수도 있다. 이는 디스플레이부(120)에 표시되는 이미지를 편집함에 유용할 수 있다.
상기 디스플레이부(120)는 터치스크린을 포함할 수 있다. 예를 들어, 상기 디스플레이부(120)의 터치스크린이 일정 시간 범위 내에서 함께 터치되는 경우에 대응하여, 상기 단말(100)의 일 기능이 실행될 수도 있다. 함께 터치되는 경우로는, 사용자가 엄지 및 검지를 이용하여 상기 단말(100)의 바디를 집는(clamping) 경우가 있을 수 있다. 상기 일 기능은, 예를 들어, 디스플레이부(120)에 대한 활성화 또는 비활성화 등일 수 있다.
상기 메모리부(130)는, 상기 단말(100)에서 처리되는 정보를 저장하는 역할을 할 수 있다.
본 명세서에 개시된 일 실시예에 따르면, 상기 메모리부(130)는 상기 단말(100)이 제공하는 3D 컨텐츠를 저장하는 역할을 할 수 있다. 구체적으로는, 상기 메모리부(130)는 상기 3D 컨텐츠가 포함하는 3D 이미지 내지 3D 객체를 저장하고, 상기 3D 이미지 내지 3D 객체에 대한 깊이(depth)정보등을 저장할 수 있다. 또한, 상기 3D 이미지 내지 3D 객체가 기 제어부(110)의해 처리된 경우, 상기 처리된 결과를 저장할 수 있다.
또한, 상기 메모리부(130)는, 상기 단말(100)이 수행하는 기능과 관련된 다양한 사용자 인터페이스(User Interface : UI) 및/또는 그래픽 사용자 인터페이스(Graphic User Interface : GUI)를 저장할 수 있다.
또한, 상기 메모리부(130)는, 상기 단말(100)이 동작하는데 필요한 데이터와 프로그램 등을 저장한다.
또한, 상기 메모리부(130)는, 플래시 메모리 타입(Flash Memory Type), 하드 디스크 타입(Hard Disk Type), 멀티미디어 카드 마이크로 타입(Multimedia Card Micro Type), 카드 타입의 메모리(예를 들면, SD 또는 XD 메모리 등), 자기 메모리, 자기 디스크, 광디스크, 램(Random Access Memory : RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory : ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 중 적어도 하나의 저장매체를 포함할 수 있다. 또한, 상기 단말(100)은 인터넷(internet)상에서 메모리부(130)의 저장 기능을 수행하는 웹 스토리지(web storage)를 운영하거나, 또는 상기 웹 스토리지와 관련되어 동작할 수도 있다.
본 명세서에 개시된
실시예들에
따른 단말의 제어방법.
본 명세서에 개시된 실시예들에 따른 단말의 제어방법은, 3D 컨텐츠를 제공함에 있어서, 상기 3D 컨텐츠를 상기 단말의 화면에 표시하는 단계, 상기 3D 컨텐츠가 포함하는 특정 3D 객체가 상기 화면상의 특정 방향으로 이동하는 경우, 상기 특정 3D 객체의 렌더링 방식을 변경하는 단계 및 상기 변경된 렌더링 방식으로 상기 특정 3D 객체를 상기 화면에 표시하는 단계를 포함할 수 있다.
도 2는 본 명세서에 개시된 실시예들에 따른 단말의 제어방법을 나타내는 순서도이다.
도 2를 참조하면, 본 명세서에 개시된 실시예들에 따른 단말의 제어방법은 다음과 같은 단계로 이루어질 수 있다.
먼저, 본 명세서에 개시된 실시예들에 따른 단말은 3D 컨텐츠를 상기 단말의 화면에 표시할 수 있다(S110).
다음으로, 상기 단말은, 상기 3D 컨텐츠가 포함하는 특정 3D 객체가 상기 화면상의 특정 방향으로 이동하는지 판단할 수 있다(S120).
다음으로, 상기 단말은, 상기 특정 3D 객체가 특정 방향으로 이동하는 경우, 상기 특정 3D 객체의 렌더링 방식을 변경할 수 있다(S130).
다음으로, 상기 단말은, 상기 변경된 렌더링 방식으로 상기 특정 3D 객체를 상기 화면에 표시할 수 있다(S140).
상기 특정 3D 객체가 이동하지 않거나 상기 변경된 렌더링 방식으로 상기 특정 3D 객체를 상기 화면에 표시한 경우, 본 명세서에 개시된 실시예들에 따른 단말의 제어방법은 종료된다.
전술한 바와 같이, 상기 특정 방향은, 상기 특정 3D 객체의 이동 전 위치로부터 상기 화면상의 에지(edge)를 향하는 방향인 것일 수 있다.
또한, 여기서, 상기 3D 컨텐츠는, 3D 웹-페이지(web-page)와 관련된 컨텐츠일 수 있다. 3D 웹-페이지(web-page)에 있어서, 3D 객체에 대한 시각적 안정감을 증가시키는 방법에 관한 실시예는 도 11을 참조하여 후술된다.
제 1
실시예
- 화면 에지에서의 시각적 피로를 감소시키는 방법
본 명세서에 개시된 제 1 실시예는 상술된 실시예들이 포함하고 있는 구성 또는 단계의 일부 또는 조합으로 구현되거나 실시예들의 조합으로 구현될 수 있으며, 이하에서는 본 명세서에 개시된 제 1 실시예의 명확한 표현을 위해 중복되는 부분을 생략할 수 있다.
본 명세서에 개시된 제 1 실시예에 따른 단말의 제어방법은, 3D 컨텐츠에 포함된 3D 객체가 상기 단말의 화면상의 특정 방향으로 이동하여, 상기 3D 객체가 상기 단말의 화면 영역 중 시각적 피로가 증가되는 영역으로 진입(또는 근접)하는 경우, 상기 3D 객체에 대한 렌더링 방식을 변경함으로써 시각적 안정감을 증가시키는 방법일 수 있다.
일반적으로, 3D 컨텐츠를 제공하는 단말에 있어서, 상기 3D 컨텐츠가 포함하는 3D 이미지 내지 3D 객체는 상기 단말의 화면 상의 특정 영역에 표시되는 것이 상기 단말의 사용자에게 시각적 안정감을 주는 경우가 있을 수 있다.
예를 들어, 상기 특정 영역은, 안정 영역(comfort zone)일 수 있다.
도 3은 본 명세서에 개시된 제 1 실시예에 따른 단말의 제어방법에 있어서의 안정 영역을 나타내는 예시도이다.
도 3(a)를 참조하면, 제 1 점(p110)은 화면 전방(또는 화면 앞면의 공간, R100)에 존재하는 가상의 물체(또는 3D 객체)의 위치를 나타내고, 제 2 점(p120)은 사용자 눈의 한가운데에 상응하는 화면상의 위치를 나타내며, 제 3 점(p130)은 화면 후방(또는 화면 뒷면의 공간, R200)에 존재하는 가상의 물체의 위치를 나타낸다.
여기서, 상기 제 1 점(p110) 및 상기 제 2 점(p130)은 가변적인 위치에 존재할 수 있다.
상기 단말의 사용자는 상기 3D 객체가 안정 영역(comfort zone, R300)에 위치하는 경우, 상기 화면에 표시되는 3D 객체를 봄(또는 인식함)에 있어서, 시각적 안정감 또는 편안함을 느낄 수 있다.
일반적으로, 상기 안정 영역(R300)은 다음과 같은 수학식에 의해 결정될 수 있다.
[수학식 1]
α - γ < 1°, γ - β< 1°
여기서, α는 음성 시차(negative parallax)인 경우의 디스패러티(disparity)이고, β는 양상 시차(positive parallax)인 경우의 디스패러티(disparity)이고, γ는 상기 제 2 점(p120)과 상기 사용자의 눈이 이루는 각도(angle of convergence)이고, α - γ 및 γ - β는 디스패러티 각(disparity angle)이다.
도 3(b)를 참조하면, 상기 안정 영역(R300)은 단말(100)의 화면 중앙 영역에 위치할 수 있다. 따라서, 상기 화면 중앙 영역에서는 상기 3D 객체에 대한 깊이 허용도가 높을 수 있고, 상기 화면의 에지에서는 상기 3D 객체에 대한 깊이 허용도가 낮을 수 있다.
본 명세서에 개시된 제 1 실시예에 따른 단말의 제어방법에 따르면, 상기 3D 객체에 대한 상기 화면상의 위치에 근거하여 상기 3D 객체에 대한 렌더링 방식을 변경함으로써, 상기 3D 객체에 대한 시각적인 안정감 내지 편안함을 증가시킬 수 있다.
이하에서, 제 1 실시예에 따른 단말의 제어방법에 대해 자세히 후술한다.
본 명세서에 개시된 제 1 실시예에 따른 단말의 제어방법은, 3D 컨텐츠를 제공함에 있어서, 상기 3D 컨텐츠를 상기 단말의 화면에 표시하는 단계, 상기 3D 컨텐츠가 포함하는 특정 3D 객체가 상기 화면상의 특정 방향으로 이동하는 경우, 상기 특정 3D 객체의 렌더링 방식을 변경하는 단계 및 상기 변경된 렌더링 방식으로 상기 특정 3D 객체를 상기 화면에 표시하는 단계를 포함할 수 있다.
제 1 실시예에 따르면, 상기 특정 방향은, 상기 특정 3D 객체의 이동 전 위치로부터 상기 화면상의 에지(edge)를 향하는 방향인 것일 수 있다.
또한, 제 1 실시예에 따르면, 상기 렌더링 방식의 변경은, 상기 특정 3D 객체의 화면상의 위치를 근거로 상기 특정 3D 객체의 이미지 깊이(depth)를 변경함에 의해 이루어지는 것일 수 있다.
또한, 제 1 실시예에 따르면, 상기 이미지 깊이는, 상기 특정 3D 객체의 화면상의 위치가 상기 화면의 에지에 근접하는 경우, 감소되는 것일 수 있다.
또한, 제 1 실시예에 따르면, 상기 렌더링 방식을 변경하는 단계는, 상기 특정 3D 객체의 이동을 근거로 상기 특정 3D 객체가 기준영역을 벗어나는지 여부를 판단하는 단계 및 상기 특정 3D 객체가 상기 기준영역을 벗어나는 경우, 상기 렌더링 방식을 변경하는 단계를 포함할 수 있다.
도 4는 본 명세서에 개시된 제 1 실시예에 따른 단말의 제어방법을 나타내는 순서도이다.
도 4를 참조하면, 본 명세서에 개시된 제 1 실시예에 따른 단말의 제어방법은 다음과 같은 단계로 이루어질 수 있다.
먼저, 제 1 실시예에 따른 단말은, 3D 컨텐츠를 상기 단말의 화면에 표시할 수 있다(S110).
다음으로, 상기 단말은, 상기 3D 컨텐츠가 포함하는 특정 3D 객체가 기준영역을 벗어나는지 여부를 판단할 수 있다(S210).
다음으로, 상기 단말은, 상기 특정 3D 객체가 상기 기준영역을 벗어나는 경우, 상기 특정 3D 객체의 렌더링 방식을 변경할 수 있다(S130).
다음으로, 상기 단말은, 상기 변경된 렌더링 방식으로 상기 특정 3D 객체를 상기 화면에 표시할 수 있다(S140).
상기 특정 3D 객체가 상기 기준영역을 벗어나야 할 필요가 없는 경우 또는 상기 변경된 렌더링 방식으로 상기 특정 3D 객체가 표시된 경우, 제 1 실시예에 따른 단말의 제어방법은 종료된다.
제 1 실시예에 따르면, 상기 기준영역은, 상기 단말의 사용자의 시각적 피로도를 근거로 결정되는 것일 수 있다. 바꾸어 말하면, 상기 기준영역은 상기 사용자의 3D 객체에 대한 시각적 안정감 내지 편안함의 정도를 기준으로 결정될 수 있다.
예를 들어, 상기 기준영역은 상술한 안정 영역(comfort zone, R300)일 수 있다.
또한, 상기 렌더링 방식은, 상기 특정 3D 객체에 포함되는 제 1 이미지 및 제 2 이미지를 근거로 3D 효과가 구현되는 방식이되, 상기 제 1 이미지 및 제 2 이미지의 각 이미지 중심은, 상기 특정 3D 객체의 이미지 깊이에 해당하는 거리만큼 이격되어 상기 화면상에 위치하는 것일 수 있다.
또한, 상기 제 1 이미지의 이미지 중심은, 상기 제 2 이미지의 이미지 중심 보다 상기 화면의 에지에 더 인접한 것일 수 있다.
도 5는 본 명세서에 개시된 제 1 실시예에 다른 단말의 제어방법을 나타내는 예시도이다.
도 5(a)를 참조하면, 단말(100)의 화면 영역 중 기준 영역(R400)에 위치하는 3D 객체(200a)가 이동하는 모습을 확인할 수 있다.
전술한 바와 같이, 상기 기준 영역(R400)은 상기 단말(100)의 사용자의 시각적 피로도를 근거로 결정되는 것일 수 있다. 예를 들어, 상기 기준 영역(R400)은 안정 영역(comfort zone)일 수 있다.
제 1 실시예에 따르면, 상기 단말(100)은 상기 3D 객체(200a)가 상기 기준 영역(R400)을 벗어나는 경우, 상기 3D 객체(200a)의 렌더링 방식을 변경할 수 있다.
여기서, 상기 렌더링 방식은, 특정 3D 객체에 포함되는 제 1 이미지 및 제 2 이미지를 근거로 3D 효과가 구현되는 방식이되, 상기 제 1 이미지 및 제 2 이미지의 각 이미지 중심은, 상기 특정 3D 객체의 이미지 깊이에 해당하는 거리만큼 이격되어 상기 화면상에 위치하는 것일 수 있다.
또한, 상기 제 1 이미지의 이미지 중심은, 상기 제 2 이미지의 이미지 중심 보다 상기 화면의 에지에 더 인접한 것일 수 있다.
예를 들어, 상기 제 1 이미지 및 상기 제 2 이미지는 상기 특정 3D 객체에 해당하는 좌, 우 이미지(또는 좌안용 영상 내지 우안용 영상)일 수 있다.
도 5(a)의 경우, 상기 렌더링 방식의 변경은, 상기 3D 객체(200a)의 이미지 깊이를 감소시킴에 의해 이루어짐을 확인할 수 있다.
즉, 상기 단말(100)은 상기 3D 객체(200a)가 상기 기준영역(R400)을 벗어나는 경우, 상기 3D 객체(200a)의 이미지 깊이를 감소시킬 수 있고, 이미지 깊이가 감소된 3D 객체(200b)를 이동된 화면의 위치에 표시할 수 있다.
이러한 방식으로, 상기 단말(100)의 사용자는 기준영역(R400)이 아닌 영역에서도 시각적으로 안정감 있는 3D 이미지 내지 영상을 감상 내지 시청할 수 있다.
제 1 실시예에 따르면, 상기 3D 객체(200a)는 다양한 원인에 의해 이동될 수 있다. 예를 들어, 상기 단말(100)의 화면에 표시되는 3D 컨텐츠가 3D 웹-페이지(3D web-page, R10)인 경우, 상기 3D 웹-페이지(R10)가 포함하는 그래픽 오브젝트(graphic object) 중 3D 객체(200a)는 상기 단말(100)의 사용자에 의한 스크롤 동작에 의해 기준영역(R400)을 벗어 날 수 있다. 이 경우, 상기 단말(100)은 상기 3D 객체(200a)의 이미지 깊이를 감소시킬 수 있고, 상기 이미지 깊이가 감소되 3D 객체(200b)를 화면에 표시할 수 있다.
제 2
실시예
- 3D 객체의 일부분이 화면 영역을 벗어난 경우의 처리방법(1)
본 명세서에 개시된 제 2 실시예는 상술된 실시예들이 포함하고 있는 구성 또는 단계의 일부 또는 조합으로 구현되거나 실시예들의 조합으로 구현될 수 있으며, 이하에서는 본 명세서에 개시된 제 2 실시예의 명확한 표현을 위해 중복되는 부분을 생략할 수 있다.
본 명세서에 개시된 제 2 실시예에 따른 단말의 제어방법은, 3D 컨텐츠에 포함된 3D 객체가 상기 단말의 화면상의 특정 방향으로 이동하여, 상기 3D 객체의 일부분이 상기 단말의 화면 영역을 벗어나는 경우에 있어서, 상기 3D 객체에 대한 렌더링 방식을 변경함으로써 시각적 안정감을 증가시키는 방법일 수 있다.
도 6은 본 명세서에 개시된 제 2 실시예에 따른 단말의 제어방법의 필요성을 나타내는 개념도이다.
도 6(a)를 참조하면, 단말(100)의 화면(400)에 표시되는 3D 객체는 제 1 이미지(510) 및 제 2 이미지(520)를 포함할 수 있다.
상기 제 1 이미지(510) 및 제 2 이미지(520)는 상기 3D 객체에 대한 3D 효과를 발생시키기 위한 것으로, 상기 제 1 이미지(510) 및 제 2 이미지(520)의 각 이미지 중심(미도시)은, 상기 3D 객체의 이미지 깊이에 해당하는 거리만큼 이격되어 상기 화면상에 위치하는 것일 수 있다.
이 경우, 상기 3D 객체가 이동하여, 상기 제 1 이미지(510)의 일부분이 상기 화면(400) 영역을 벗어나야 하는 경우가 발생될 수 있다. 이에 반해, 상기 제 2 이미지(520)는 상기 3D 객체의 이미지 깊이의 존재로 인해 상기 화면(400) 영역을 벗어나지 않을 수 있다.
도 6(b)를 참조하면, 상기 제 1 이미지(510)는 좌안용 이미지에 대응되는 이미지일 수 있고, 상기 제 2 이미지(520)는 우안용 이미지에 대응되는 이미지일 수 있다.
이 경우, 상기 제 2 이미지(520)에 대응되어 발생하는 이미지의 상은 전체로써 인식될 수 있으나, 상기 제 1 이미지(510)에 대응되어 발생하는 이미지의 상은 상기 화면(400) 영역을 벗어난 부분에 해당하는 제 1 상(530) 및 벗어나지 않은 부분에 해당하는 제 2 상(540)으로 구분될 수 있다.
따라서, 상기 단말(100)의 사용자는 상기 제 1 상의 존재로 인해 시각적으로 어른거림(또는 깜박거림)을 느낄 수 있다.
따라서, 상기 시각적인 어른거림을 제거하여 상기 3D 객체에 대한 시각적인 안정감 내지 편안함을 유지시키는 것이 중요할 수 있다.
도 7은 본 명세서에 개시된 제 2 실시예에 따른 단말의 제어방법을 나타내는 순서도이다.
도 7을 참조하면, 본 명세서에 개시된 제 2 실시예에 따른 단말의 제어방법은 다음과 같은 단계로 이루어질 수 있다.
먼저, 단말은 3D 컨텐츠를 상기 단말의 화면에 표시할 수 있다(S110).
다음으로, 상기 단말은 상기 3D 컨텐츠 내의 특정 3D 객체가 포함하는 제 1 이미지의 일부 영역이 상기 화면 밖으로 벗어나야 되는지 여부를 판단할 수 있다(S310).
다음으로, 상기 단말은, 상기 제 1 이미지의 일부 영역이 상기 화면 밖으로 벗어나야 되는 경우, 상기 특정 3D 객체의 이미지 깊이를 감소시키는 방식으로 상기 특정 3D 객체의 렌더링 방식을 변경할 수 있다(S320).
다음으로, 상기 단말은 상기 변경된 렌더링 방식으로 상기 특정 3D 객체를 상기 화면에 표시할 수 있다(S140).
제 2 실시예에 따르면, 상기 렌더링 방식의 변경은, 상기 특정 3D 객체의 이미지 깊이를 감소시킴에 의해 이루어지는 것일 수 있다.
또한, 제 2 실시예에 따르면, 상기 일부 영역은, 상기 이미지 깊이의 감소를 근거로 상기 화면 내에 위치하는 것일 수 있다.
도 8은 본 명세서에 개시된 제 2 실시예에 따른 단말의 제어방법을 나타내는 예시도이다.
도 8(a)를 참조하면, 3D 객체가 단말(100)의 화면(400) 상에 표시되고, 상기 3D 객체는 제 1 이미지(510a) 및 제 2 이미지(520a)를 포함하고 있다.
일반적인 경우, 도 8(a)의 왼쪽 도면에 도시된 바와 같이, 상기 제 1 이미지(510a)의 일부 영역은 상기 3D 객체의 이동으로 인해 상기 화면(400) 영역을 벗어나야 되는 경우가 발생될 수 있다.
이 경우, 전술한 바와 같이, 시각적으로 어른거림(또는 깜박거림)이 발생할 수 있다.
이를 해결하기 위해, 제 2 실시예에 따른 단말은, 상기 3D 객체의 이동으로 인해 상기 제 1 이미지(510a)의 일부 영역이 상기 화면(400) 영역을 벗어나야 되는지 여부를 판단하고, 상기 제 1 이미지(501a)의 일부 영역이 상기 화면(400) 영역을 벗어나야 되는 경우, 상기 3D 객체의 이미지 깊이를 감소시킬 수 있다.
상기 3D 객체의 이미지 깊이가 감소되는 경우, 도 8(a)의 오른쪽 도면에서와 같이, 제 1 이미지(510b) 및 상기 제 2 이미지(520b)의 이미지 중심간의 거리가 가까워질 수 있다.
또한, 상기 이미지 중심간의 거리가 가까워지는 경우, 상기 제 1 이미지(510b)의 전체가 상기 화면(400) 영역 내에 위치될 수 있고, 이로 인해 시각적으로 어른거리는 현상이 제거될 수 있다.
도 8(b)는 3D 객체의 이동 정도가 매우 큰 경우를 나타내며, 도 8(a)와 마찬가지로 상기 3D 객체는 제 1 이미지(510c) 및 제 2 이미지(520c)를 포함하고 있다.
상기 3D 객체가 포함하는 제 1 이미지(510c)의 일부 영역이 화면(400) 영역을 벗어나야 하는 경우, 단말(100)은 도 8(a)와 마찬가지로 상기 3D 객체의 이미지 깊이를 감소시킬 수 있다.
다만, 상기 3D 객체의 이동 정도가 매우 커서, 상기 3D 객체의 이미지 깊이의 감소로 인해 상기 3D 객체의 이미지 깊이는 '0'이 될 수 있고, 이로 인해, 상기 제 1 이미지(510c) 및 제 2 이미지(520c)가 겹쳐진 3D 객체(430)이 상기 화면(400)에 표시될 수 있다(도 8(b)의 오른쪽 도면).
추가적으로, 상기 이미지 깊이 '0'인 3D 객체(530)가 더 이동하는 경우, 상기 3D 객체(530)의 일부 영역은 상기 화면(400) 영역을 벗어날 수 있다. 그러나, 이 경우에는 상기 제 1 이미지(510c) 및 제 2 이미지(520c)가 겹쳐진 상태로 함께 상기 화면(400) 영역을 벗어나기 때문에 시각적인 어른거림은 발생하지 않을 수 있다.
제 3
실시예
- 3D 객체의 일부분이 화면 영역을 벗어난 경우의 처리방법(2)
본 명세서에 개시된 제 3 실시예는 상술된 실시예들이 포함하고 있는 구성 또는 단계의 일부 또는 조합으로 구현되거나 실시예들의 조합으로 구현될 수 있으며, 이하에서는 본 명세서에 개시된 제 3 실시예의 명확한 표현을 위해 중복되는 부분을 생략할 수 있다.
제 2 실시예와 마찬가지로, 본 명세서에 개시된 제 3 실시예에 따른 단말의 제어방법은, 3D 컨텐츠에 포함된 3D 객체가 상기 단말의 화면상의 특정 방향으로 이동하여, 상기 3D 객체의 일부분이 상기 단말의 화면 영역을 벗어나는 경우에 있어서, 상기 3D 객체에 대한 렌더링 방식을 변경함으로써 시각적 안정감을 증가시키는 방법일 수 있다.
도 9는 본 명세서에 개시된 제 3 실시예에 따른 단말의 제어방법을 나타내는 순서도이다.
도 9를 참조하면, 본 명세서에 개시된 제 3 실시예에 따른 단말의 제어방법은 다음과 같은 단계로 이루어질 수 있다.
먼저, 단말은 3D 컨텐츠를 상기 단말의 화면에 표시할 수 있다(S110).
다음으로, 상기 단말은 상기 3D 컨텐츠 내의 특정 3D 객체가 포함하는 제 1 이미지의 일부 영역이 상기 화면 밖으로 벗어나야 되는지 여부를 판단할 수 있다(S310).
다음으로, 상기 단말은, 상기 특정 3D 객체가 포함하는 제 2 이미지 중 제 1 이미지의 일부 영역에 대응되는 영역을 화면에 표시하지 않는 방식으로 특정 3D 객체의 렌더링 방식을 변경할 수 있다(S410).
다음으로, 상기 단말은 상기 변경된 렌더링 방식으로 상기 특정 3D 객체를 상기 화면에 표시할 수 있다(S140).
도 10은 본 명세서에 개시된 제 3 실시예에 따른 단말의 제어방법을 나타내는 예시도이다.
도 10(a)를 참조하면, 3D 컨텐츠가 포함하는 특정 3D 객체가 제 1 이미지(510) 및 제 2 이미지(520)를 포함하고 있다.
또한, 상기 특정 3D 객체의 이동으로 인하여, 상기 제 1 이미지(510)는 화면(400) 영역을 벗어나야 하는 제 1 일부영역(511) 및 상기 화면(400) 영역을 벗어나지 않는 제 2 일부영역(512)으로 나뉘어질 수 있다.
이 경우, 단말(100)은 상기 제 2 이미지(520)를 상기 제 1 일부영역(511)에 대응되는 제 3 일부영역(521) 및 상기 제 2 일부영역(512)에 대응되는 제 4 일부영역(522)로 나눌 수 있다.
또한, 상기 단말(100)은 상기 화면(400) 영역을 벗어나야 하는 제 1 일부영역(511)이 발생하는 경우, 상기 3D 객체에 대한 렌더링 방식을 변경할 수 있다.
상기 렌더링 방식의 변경은, 상기 제 1 일부영역(511)에 대응되는 제 3 일부영역(521)을 상기 화면(400)에 표시하지 않음에 의해 이루어질 수 있다.
즉, 상기 단말(100)은 상기 제 1 일부영역(511)이 상기 화면(400) 영역을 벗어나는 경우, 상기 제 3 일부영역(521)도 함께 상기 화면(400)에 표시하지 않을 수 있다.
도 10(b)는, 상기 제 1 일부영역(511)이 상기 화면(400) 영역을 벗어나는 경우, 상기 제 3 일부영역(521)이 상기 화면(400)에 표시되지 않는 경우를 나타낸다.
이 경우, 상기 제 1 이미지(510)에 대응되어 발생하는 이미지의 상이 상기 화면(400) 영역을 벗어난 부분에 해당하는 제 1 상(530) 및 벗어나지 않은 부분에 해당하는 제 2 상(540)으로 구분되는 것처럼, 상기 제 2 이미지(520)에 대응되어 발생하는 이미지의 상도 구분되기 때문에 시각적인 어른거림이 제거될 수 있다.
본 명세서에 개시된 일
실시예
따른 단말의 제어방법에 대한 응용분야
본 명세어에 개시된 일 실시예에 따른 단말의 제어방법은, 3D 컨텐츠를 제공하는 단말의 제어방법에 있어서, 상기 3D 컨텐츠를 상기 단말의 화면에 표시하는 단계, 상기 3D 컨텐츠가 포함하는 특정 3D 객체가 상기 화면상의 특정 방향으로 이동하는 경우, 상기 특정 3D 객체의 렌더링 방식을 변경하는 단계 및 상기 변경된 렌더링 방식으로 상기 특정 3D 객체를 상기 화면에 표시하는 단계를 포함할 수 있다.
상기 단말의 제어방법은, 다양한 응용분야에 적용될 수 있다.
예를 들어, 상기 단말이 제공하는 3D 컨텐츠는, OpenGL이나 D3D등을 사용하여 제작된 소프트웨어를 Stereoscopic 3D로 변환하는 응용분야인 게임 및 교육용 소프트웨어등이 될 수 있다.
또한, 예를 들어, Flash 애플리케이션 중 Stereoscopic 3D flash에 적용될 수 있다.
또한, 예를 들어, 프레젠테이션과 관련된 애플리케이션 중 Stereoscopic 3D presentation에 적용될 수 있다.
이하에서는, 상기 단말의 제어방법에 대한 응용분야 중, 상기 3D 컨텐츠가 3D 웹-페이지(web-page)인 경우에 대해서 후술한다.
또한, 이하에서 사용되는 용어는 본 응용분야에서 일반적으로 사용되는 용어의 의미로써 해석될 수 있다.
도 11은 단말이 제공하는 3D 컨텐츠인 3D 웹-페이지의 렌더링 방법을 나타내는 개념도이다.
도 11을 참조하면, 3D 웹-페이지의 렌더링 방법은 다음과 같은 순서로 이루어질 수 있다.
먼저, 상기 단말은 상기 3D 웹-페이지에 대한 소스 텍스트(source text, 또는 소스 코드)를 로딩(loading)할 수 있다(710).
상기 소스 텍스트는 다양한 종류의 프로그래밍 언어로 구현될 수 있다. 예를 들어, 상기 소스 텍스트는 HTML 또는 CSS로 구현될 수 있다.
본 명세서에 개시된 일 실시예에 따르면, 3D 효과가 발생하도록 상기 3D 웹-페이지를 렌더링하기 위해서는 상기 소스 텍스트는 상기 3D 웹-페이지가 포함하는 그래픽 오브젝트(또는 3D 객체)의 이미지 깊이 정보를 생성하거나 조정하기 위한 깊이 애프리뷰트(depth attribute)를 포함할 수 있다.
다음으로, 상기 단말은 상기 소소 텍스트를 파싱(parsing)할 수 있다(720).
상기 소스 텍스트의 파싱으로 인해 상기 깊이 애프리뷰트(depth attribute)가 상기 3D 웹-페이지에 대한 스타일 룰(style rule)에 저장될 수 있고, 돔 트리(DOM tree)가 생성될 수 있다.
다음으로, 상기 단말은 상기 돔 트리를 근거로 렌더 트리(render tree)를 구성할 수 있다(730).
다음으로, 상기 단말은 상기 렌더 트리를 근거로 상기 3D 웹-페이지가 포함하는 다양한 그래픽 오브젝트에 대한 레이아웃 정보 내지 드로잉 순서(drawing order)를 생성할 수 있다(740).
상기 레이아웃 정보는, 상기 그래픽 오브젝트가 상기 화면상에 표시되는 위치, 모양, 크기 및 배열 중 적어도 하나와 관련된 정보일 수 있다.
또한, 상기 드로잉 순서는, 같은 이미지 깊이(depth)의 그래픽 오브젝트를 하나의 층(layer)에 포함시키는 단계, 이들 층(layer)간의 깊이 순서(depth order)를 오름차순 정렬하는 단계 및 순서대로 상기 층(layer) 내의 그래픽 오브젝트를 드로잉하는 단계로 이루어질 수 있다.
또한, 상기 동일 깊이(depth)의 그래픽 오브젝트에 대한 드로잉 순서는, 그래픽 오브젝트에 대한 z-index 혹은 상기 그래픽 오브젝트에 대한 요소(element)가 소스 텍스트(예를 들어, HTML)에서 기재된 순서등을 고려하여 정해질 수 있다.
다음으로, 상기 단말은, 상기 그래픽 오브젝트의 패인팅(painting, 또는 ㄷ로잉)을 위해 상기 그래픽 오브젝트에 3D 요소(factor)를 인가할 수 있다(750).
다음으로, 상기 단말은, 좌안용 렌더 트리에 대한 패인팅(760) 및 우안용 렌더 트리에 대한 패인팅(770)을 할 수 있다.
다음으로, 상기 단말은, 상기 좌 및 우안용 패인팅에 근거하여 상기 그래픽 오브젝트를 디스플레이할 수 있다(780).
상기 디스플레이 방법은, Side by side, Top bottom 및 Line by line 중 적어도 하나의 방식으로 수행될 수 있다.
상술한 바와 같은 3D 웹-페이지의 렌더링 방법에 있어서, 상기 단말은, 상기 3D 웹-페이지를 상기 단말의 화면에 표시하고, 상기 3D 웹-페이지가 포함하는 특정 3D 객체가 상기 화면상의 특정 방향으로 이동하는 경우, 상기 특정 3D 객체의 렌더링 방식을 변경하고, 상기 변경된 렌더링 방식으로 상기 특정 3D 객체를 상기 화면에 표시할 수 있다.
여기서, 상기 특정 방향은, 상기 특정 3D 객체의 이동 전 위치로부터 상기 화면상의 에지(edge)를 향하는 방향인 것일 수 있다.
또한, 상기 렌더링 방식의 변경은, 상기 특정 3D 객체의 화면상의 위치를 근거로 상기 특정 3D 객체의 이미지 깊이(depth)를 변경함에 의해 이루어지는 것일 수 있다.
본 발명의 범위는 본 명세서에 개시된 실시 예들로 한정되지 아니하고, 본 발명은 본 발명의 사상 및 특허청구범위에 기재된 범주 내에서 다양한 형태로 수정, 변경, 또는 개선될 수 있다.
Claims (20)
- 3D 컨텐츠를 제공하는 단말의 제어방법에 있어서,
상기 3D 컨텐츠를 상기 단말의 화면에 표시하는 단계;
상기 3D 컨텐츠가 포함하는 특정 3D 객체가 상기 화면상의 특정 방향으로 이동하는 경우,
상기 특정 3D 객체의 렌더링 방식을 변경하는 단계; 및
상기 변경된 렌더링 방식으로 상기 특정 3D 객체를 상기 화면에 표시하는 단계를 포함하는 것을 특징으로 하는 단말의 제어방법. - 제1항에 있어서, 상기 3D 컨텐츠는,
3D 웹-페이지(web-page)인 것인 단말의 제어방법. - 제1항에 있어서, 상기 특정 방향은,
상기 특정 3D 객체의 이동 전 위치로부터 상기 화면상의 에지(edge)를 향하는 방향인 것인 단말의 제어방법. - 제1항에 있어서, 상기 렌더링 방식의 변경은,
상기 특정 3D 객체의 화면상의 위치를 근거로 상기 특정 3D 객체의 이미지 깊이(depth)를 변경함에 의해 이루어지는 것인 단말의 제어방법. - 제4항에 있어서, 상기 이미지 깊이는,
상기 특정 3D 객체의 화면상의 위치가 상기 화면의 에지에 근접하는 경우, 감소되는 것인 단말의 제어방법. - 제1항에 있어서, 상기 렌더링 방식을 변경하는 단계는,
상기 특정 3D 객체의 이동을 근거로 상기 특정 3D 객체가 기준영역을 벗어나는지 여부를 판단하는 단계; 및
상기 특정 3D 객체가 상기 기준영역을 벗어나는 경우,
상기 렌더링 방식을 변경하는 단계를 포함하는 것을 특징으로 하는 단말의 제어방법. - 제6항에 있어서, 상기 기준영역은,
상기 단말의 사용자의 시각적 피로도를 근거로 결정되는 것인 단말의 제어방법. - 제1항에 있어서, 상기 렌더링 방식은,
상기 특정 3D 객체에 포함되는 제 1 이미지 및 제 2 이미지를 근거로 3D 효과가 구현되는 방식이되,
상기 제 1 이미지 및 제 2 이미지의 각 이미지 중심은,
상기 특정 3D 객체의 이미지 깊이에 해당하는 거리만큼 이격되어 상기 화면상에 위치하는 것인 단말의 제어방법. - 제8항에 있어서, 상기 제 1 이미지의 이미지 중심은,
상기 제 2 이미지의 이미지 중심 보다 상기 화면의 에지에 더 인접한 것인 단말의 제어방법. - 제8항에 있어서, 상기 렌더링 방식을 변경하는 단계는,
상기 특정 3D 객체의 이동으로 인해 상기 제 1 이미지의 일부 영역이 상기 화면 밖으로 벗어나야 되는지 판단하는 단계;
상기 일부 영역이 상기 화면 밖으로 벗어나야 되는 경우,
상기 특정 3D 객체의 렌더링 방식을 변경하는 단계를 포함하는 것을 특징으로 하는 단말의 제어방법. - 제10항에 있어서, 상기 렌더링 방식의 변경은,
상기 특정 3D 객체의 이미지 깊이를 감소시킴에 의해 이루어지는 것인 단말의 제어방법. - 제11항에 있어서, 상기 일부 영역은,
상기 이미지 깊이의 감소를 근거로 상기 화면 내에 위치하는 것인 단말의 제어방법. - 제10항에 있어서, 상기 렌더링 방식의 변경은,
상기 제 2 이미지 중 상기 제 1 이미지의 일부 영역에 대응되는 영역을 상기 화면에 표시하지 않음에 의해 이루어지는 것인 단말의 제어방법. - 3D 컨텐츠를 화면에 표시하는 디스플레이부;
상기 3D 컨텐츠가 포함하는 특정 3D 객체가 상기 화면상의 특정 방향으로 이동하는 경우,
상기 특정 3D 객체의 렌더링 방식을 변경하고,
상기 변경된 렌더링 방식으로 상기 특정 3D 객체가 상기 화면에 표시되도록 상기 디스플레이부를 제어하는 제어부를 포함하는 것을 특징으로 하는 단말. - 제14항에 있어서, 상기 특정 방향은,
상기 특정 3D 객체의 이동 전 위치로부터 상기 화면상의 에지(edge)를 향하는 방향인 것인 단말. - 제14항에 있어서, 상기 렌더링 방식의 변경은,
상기 특정 3D 객체의 화면상의 위치를 근거로 상기 특정 3D 객체의 이미지 깊이(depth)를 변경함에 의해 이루어지는 것인 단말. - 제14항에 있어서, 상기 렌더링 방식은,
상기 특정 3D 객체에 포함되는 제 1 이미지 및 제 2 이미지를 근거로 3D 효과가 구현되는 방식이되,
상기 제 1 이미지 및 제 2 이미지의 각 이미지 중심은,
상기 특정 3D 객체의 이미지 깊이에 해당하는 거리만큼 이격되어 상기 화면상에 위치하는 것인 단말. - 제17항에 있어서, 상기 렌더링 방식은,
상기 특정 3D 객체의 이동으로 인해 상기 제 1 이미지의 일부 영역이 상기 화면 밖으로 벗어나야 되는 경우에 변경되는 것인 단말. - 제18항에 있어서, 상기 렌더링 방식의 변경은,
상기 특정 3D 객체의 이미지 깊이를 감소시킴에 의해 이루어지는 것인 단말. - 제18항에 있어서, 상기 렌더링 방식의 변경은,
상기 제 2 이미지 중 상기 제 1 이미지의 일부 영역에 대응되는 영역을 상기 화면에 표시하지 않음에 의해 이루어지는 것인 단말.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/KR2012/005389 WO2014007414A1 (en) | 2012-07-06 | 2012-07-06 | Terminal for increasing visual comfort sensation of 3d object and control method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20150016324A true KR20150016324A (ko) | 2015-02-11 |
KR101649660B1 KR101649660B1 (ko) | 2016-08-19 |
Family
ID=49882162
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020147034901A KR101649660B1 (ko) | 2012-07-06 | 2012-07-06 | 3d 객체에 대한 시각적 안정감을 증가시키는 단말 및 단말의 제어방법 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9674501B2 (ko) |
KR (1) | KR101649660B1 (ko) |
WO (1) | WO2014007414A1 (ko) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150304640A1 (en) * | 2012-12-20 | 2015-10-22 | Dolby Laboratories Licensing Corporation | Managing 3D Edge Effects On Autostereoscopic Displays |
US10230935B2 (en) * | 2016-10-11 | 2019-03-12 | Marvel Digital Limited | Method and a system for generating depth information associated with an image |
BR112019016820B1 (pt) | 2017-04-11 | 2022-05-24 | Dolby Laboratories Licensing Corporation | Método para experiências de entretenimento aumentadas em camadas |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110091443A (ko) * | 2010-02-05 | 2011-08-11 | 소니 주식회사 | 화상 표시 장치, 화상 표시 관찰 시스템 및 화상 표시 방법 |
JP2011259045A (ja) * | 2010-06-07 | 2011-12-22 | Sony Corp | 立体画像表示システム、視差変換装置、視差変換方法およびプログラム |
KR20120035071A (ko) * | 2010-10-04 | 2012-04-13 | 삼성전자주식회사 | 입체 영상의 입체감을 감쇠하기 위한 장치 및 방법 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100294925B1 (ko) | 1999-06-03 | 2001-07-12 | 윤종용 | 3차원 그래픽 영상 생성 방법 및 이를 위한 양안 시차 조절 방법 |
US7116338B2 (en) * | 2001-09-26 | 2006-10-03 | Canon Kabushiki Kaisha | Color information processing apparatus and method |
KR100667810B1 (ko) * | 2005-08-31 | 2007-01-11 | 삼성전자주식회사 | 3d 영상의 깊이감 조정 장치 및 방법 |
CA2621488A1 (en) * | 2005-09-13 | 2007-03-22 | Spacetime3D, Inc. | System and method for providing three-dimensional graphical user interface |
US8284204B2 (en) * | 2006-06-30 | 2012-10-09 | Nokia Corporation | Apparatus, method and a computer program product for providing a unified graphics pipeline for stereoscopic rendering |
US7712052B2 (en) * | 2006-07-31 | 2010-05-04 | Microsoft Corporation | Applications of three-dimensional environments constructed from images |
US20080126021A1 (en) * | 2006-11-27 | 2008-05-29 | Ramsay Hoguet | Converting web content into texture mapping objects |
US8886669B2 (en) * | 2008-03-21 | 2014-11-11 | Trimble Navigation Limited | File access via conduit application |
KR20100036015A (ko) | 2008-09-29 | 2010-04-07 | 김형수 | 입체영상 생성장치 |
US8508580B2 (en) * | 2009-07-31 | 2013-08-13 | 3Dmedia Corporation | Methods, systems, and computer-readable storage media for creating three-dimensional (3D) images of a scene |
US9380292B2 (en) * | 2009-07-31 | 2016-06-28 | 3Dmedia Corporation | Methods, systems, and computer-readable storage media for generating three-dimensional (3D) images of a scene |
US8614737B2 (en) | 2009-09-11 | 2013-12-24 | Disney Enterprises, Inc. | System and method for three-dimensional video capture workflow for dynamic rendering |
US20110157322A1 (en) * | 2009-12-31 | 2011-06-30 | Broadcom Corporation | Controlling a pixel array to support an adaptable light manipulator |
EP2381423A1 (en) * | 2010-03-26 | 2011-10-26 | Alcatel Lucent | Method for transforming web from 2d into 3d |
IT1401367B1 (it) * | 2010-07-28 | 2013-07-18 | Sisvel Technology Srl | Metodo per combinare immagini riferentesi ad un contenuto tridimensionale. |
KR101777854B1 (ko) | 2010-12-21 | 2017-09-13 | 한국전자통신연구원 | 깊이감 조절 방법과 장치, 이를 구비하는 단말기 및 그 동작 방법 |
US20130155053A1 (en) * | 2011-09-22 | 2013-06-20 | Virual World & Suns, Llc | Multi-dimensional visual display interface |
US10067634B2 (en) * | 2013-09-17 | 2018-09-04 | Amazon Technologies, Inc. | Approaches for three-dimensional object display |
-
2012
- 2012-07-06 US US14/406,709 patent/US9674501B2/en not_active Expired - Fee Related
- 2012-07-06 WO PCT/KR2012/005389 patent/WO2014007414A1/en active Application Filing
- 2012-07-06 KR KR1020147034901A patent/KR101649660B1/ko active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110091443A (ko) * | 2010-02-05 | 2011-08-11 | 소니 주식회사 | 화상 표시 장치, 화상 표시 관찰 시스템 및 화상 표시 방법 |
JP2011259045A (ja) * | 2010-06-07 | 2011-12-22 | Sony Corp | 立体画像表示システム、視差変換装置、視差変換方法およびプログラム |
KR20120035071A (ko) * | 2010-10-04 | 2012-04-13 | 삼성전자주식회사 | 입체 영상의 입체감을 감쇠하기 위한 장치 및 방법 |
Also Published As
Publication number | Publication date |
---|---|
WO2014007414A1 (en) | 2014-01-09 |
KR101649660B1 (ko) | 2016-08-19 |
US20150156472A1 (en) | 2015-06-04 |
US9674501B2 (en) | 2017-06-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102415502B1 (ko) | 복수의 사용자를 위한 라이트 필드 렌더링 방법 및 장치 | |
US9773338B2 (en) | Rendering method of 3D web-page and terminal using the same | |
US9274676B2 (en) | Controlling three-dimensional views of selected portions of content | |
JP4468370B2 (ja) | 三次元表示方法、装置およびプログラム | |
US9049435B2 (en) | Image providing apparatus and image providing method based on user's location | |
KR20120015165A (ko) | 영상의 깊이감 조절 방법 및 이를 이용하는 이동 단말기 | |
US20120086714A1 (en) | 3d image display apparatus and display method thereof | |
US11057612B1 (en) | Generating composite stereoscopic images usually visually-demarked regions of surfaces | |
US20120229451A1 (en) | method, system and apparatus for display and browsing of e-books | |
JP4218937B2 (ja) | 立体視用表示装置及び立体視用表示方法 | |
KR101649660B1 (ko) | 3d 객체에 대한 시각적 안정감을 증가시키는 단말 및 단말의 제어방법 | |
JP2010259017A (ja) | 表示装置、表示方法、および表示プログラム | |
KR101207859B1 (ko) | 입체영상 표시 방법 및 그 장치 | |
KR20130123526A (ko) | 입체 영상 디스플레이 장치 및 입체 영상 디스플레이 방법 | |
KR102279816B1 (ko) | 무안경 입체영상표시장치 | |
US9479766B2 (en) | Modifying images for a 3-dimensional display mode | |
KR101723413B1 (ko) | 이동 단말기 및 그 제어방법 | |
KR101445656B1 (ko) | 이동 단말기 및 그 제어방법 | |
CN202306008U (zh) | 一种三维图像显示单元及具有三维图像显示功能的终端 | |
KR101207860B1 (ko) | 입체영상 부분 표시 방법 및 그 장치 | |
US9547933B2 (en) | Display apparatus and display method thereof | |
KR101289527B1 (ko) | 이동 단말기 및 그 제어방법 | |
KR20130051631A (ko) | 이동 단말기 및 그 제어방법 | |
KR101660021B1 (ko) | 2d-3d 병립 방식 표시장치 | |
KR20120063349A (ko) | 3d 입체 카툰 변환 방법 및 시스템, 이를 위한 기록매체 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |