KR102219456B1 - 컨텐츠를 렌더링하는 방법 및 장치 - Google Patents

컨텐츠를 렌더링하는 방법 및 장치 Download PDF

Info

Publication number
KR102219456B1
KR102219456B1 KR1020140137596A KR20140137596A KR102219456B1 KR 102219456 B1 KR102219456 B1 KR 102219456B1 KR 1020140137596 A KR1020140137596 A KR 1020140137596A KR 20140137596 A KR20140137596 A KR 20140137596A KR 102219456 B1 KR102219456 B1 KR 102219456B1
Authority
KR
South Korea
Prior art keywords
image
reference plane
common
processor
user
Prior art date
Application number
KR1020140137596A
Other languages
English (en)
Other versions
KR20160043349A (ko
Inventor
남정
이정은
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to KR1020140137596A priority Critical patent/KR102219456B1/ko
Priority to US14/882,048 priority patent/US9805291B2/en
Publication of KR20160043349A publication Critical patent/KR20160043349A/ko
Application granted granted Critical
Publication of KR102219456B1 publication Critical patent/KR102219456B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

본 발명의 실시 예에 따른 컨텐츠의 렌더링 방법은3차원 컨텐츠 표시 요청에 응답하여, 상기 3차원 컨텐츠에 설정된 기준면을 확인하는 동작, 상기 기준면에 기반하여 오브젝트를 분류하는 동작, 상기 분류된 오브젝트를 이용하여 제 1좌측 이미지, 제 1우측 이미지 및 공통 이미지를 생성하는 동작 및 상기 제 1좌측 이미지와 제 1우측 이미지에 각각 공통 이미지를 합성하는 동작을 포함할 수 있다.
이 외에도 다양한 실시 예가 가능하다.

Description

컨텐츠를 렌더링하는 방법 및 장치{Method and apparatus for rendering contents}
본 개시의 다양한 실시 예는 컨텐츠를 렌더링하는 방법 및 장치에 관한 것이다.
최근의 디스플레이를 구비한 전자장치에서는 3차원으로 제작된 컨텐츠를 이용하여 화면을 입체적으로 보이도록 할 수 있다. 화면을 3차원으로 표시하는 방법은 한 쪽 눈을 가리고 특정 사물을 바라볼 때 우측 눈과 좌측 눈이 보는 사물의 위치가 서로 다르게 보이는 원리를 이용할 수 있다. 즉, 3차원 화면은 좌측 눈에 보여지는 이미지와 우측 눈에 보여지는 이미지에 차이를 주고 두 눈에서 각각 바라본 2차원 이미지가 뇌에서 합쳐져 원근감 및 입체감을 느끼도록 제작될 수 있다.
이와 같이 3차원 화면을 표시하기 위해서는 3차원 좌표로 제작된 3차원의 컨텐츠를 2차원의 좌표를 갖는 좌측 및 우측2개의 이미지(Stereo Image)로 렌더링하는 과정이 있을 수 있다.
일반적인 3차원 그래픽 게임 등의 3차원 컨텐츠를 표시하는 경우, 전자장치에서 실시간으로 3차원 이미지를 렌더링하는 동작을 수행할 수 있다. 이와 같이 전자장치에서 실시간으로 렌더링하는 방식은 화면에 표시할 오브젝트의 개수가 많을수록 리소스 낭비뿐 아니라, 렌더링 속도가 저하될 수 있다. 그리고 상기 렌더링 속도가 저하되면, 그에 따라 3차원 화면의 표시속도 또한 느려질 수 있다.
본 발명의 다양한 실시 예는 3차원 화면을 표시하기 위해 렌더링 수행 시, 렌더링의 리소스 낭비를 줄이고 렌더링 속도를 증가시키는 방법을 제공할 수 있다.
본 발명의 실시 예에 따른 컨텐츠의 렌더링 방법은3차원 컨텐츠 표시 요청에 응답하여, 상기 3차원 컨텐츠에 설정된 기준면을 확인하는 동작, 상기 기준면에 기반하여 오브젝트를 분류하는 동작, 상기 분류된 오브젝트를 이용하여 제 1좌측 이미지, 제 1우측 이미지 및 공통 이미지를 생성하는 동작 및 상기 제 1좌측 이미지와 제 1우측 이미지에 각각 공통 이미지를 합성하는 동작을 포함할 수 있다.
본 발명의 실시 예에 따른 컨텐츠를 렌더링하는 전자 장치에 있어서, 3차원 컨텐츠 및 구동 프로그램을 저장하는 메모리, 3차원 컨텐츠 표시 요청에 따라 상기 3차원 컨텐츠에 설정된 기준면을 확인하고, 상기 기준면에 기반하여 상기 컨텐츠를 구성하는 오브젝트를 분류하고, 상기 분류된 오브젝트를 이용하여 제 1좌측 이미지 및 제 1우측 이미지 및 공통 이미지를 구분 생성하며, 상기 제 1좌측 이미지와 제 1우측 이미지에 각각 공통 이미지를 합성하도록 제어하는 프로세서 및 상기 제 1좌측 이미지와 상기 공통 이미지가 합성된 제 2좌측 이미지와 상기 제 1우측 이미지와 상기 공통 이미지가 합성된 제 2우측 이미지를 표시하는 디스플레이를 포함할 수 있다.
본 발명의 실시 예에 따른 3차원 컨텐츠를 렌더링하는 방법 및 장치는 3차원 화면을 표시하기 위해 렌더링 수행 시, 시야의 특정 영역에 있는 오브젝트들은 하나의 씬(scene)으로만 제작하므로 렌더링의 리소스 낭비를 줄일 수 있다. 또한 본원 발명의 실시 예는 3차원 화면 출력 시, 렌더링 속도를 증가시킬 수 있다.
도 1은 다양한 실시예에 따른 전자 장치를 포함하는 네트워크 환경을 도시한다
도 2은 본 발명의 실시 예에 따른 전자 장치의 영상 변환 모듈의 블록도이다.
도 3는 본 발명의 실시 예에 따른 3차원 렌더링 동작의 개념을 설명하는 도면이다.
도 4a 및 도 4b는 본 발명의 실시 예에 따른 3차원 화면을 구현하는 동작을 도시한 순서도이다.
도 5a 내지 도 5c는 본 발명의 실시 예에 따른 렌더링 시 오브젝트의 위치변화를 도시한 도면이다.
도 6는 본 발명의 실시 예에 따른 기준면을 도시한 도면이다.
도 7a 내지 7d는 본 발명의 실시 예에 따른 렌더링 시 오브젝트의 위치변화를 도시한 도면이다.
도 8은 본 발명의 실시 예에 따른 오브젝트가 표시되는 영역을 제 2 기준면에 기반하여 구분한 도면이다.
도 9는 본 발명의 실시 예에 따른 오브젝트가 표시되는 영역을 제 1 기준면과 제 2기준면에 기반하여 구분한 도면이다.
도 10a 내지 도 10e는 본 발명의 실시 예에 따른 렌더링 시 발생 가능한 오류를 도시하는 도면이다.
도 11a 및 도 11b는 본 발명의 실시 예에 따른 렌더링 시 발생 가능한 오류를 제거하는 동작을 도시하는 도면이다.
도 12는 본 발명의 실시 예에 따른 포그라운드 이미지가 합성된 최종 이미지가 표시되는 화면을 도시하는 도면이다.
도 13는 본 발명의 다양한 실시 예에 따른 메뉴 화면에서의 3차원 구현 동작을 도시하는 도면이다.
도 14는 본 발명의 실시 예에 따른 전자장치의 구성을 도시한 구성도이다.
이하, 본 발명의 다양한 실시예가 첨부된 도면과 연관되어 기재된다. 본 발명의 다양한 실시예는 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들이 도면에 예시되고 관련된 상세한 설명이 기재되어 있다. 그러나, 이는 본 발명의 다양한 실시예를 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 다양한 실시예의 사상 및 기술 범위에 포함되는 모든 변경 및/또는 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용되었다.
본 발명의 다양한 실시예에서 사용될 수 있는“포함한다” 또는 “포함할 수 있다” 등의 표현은 개시(disclosure)된 해당 기능, 동작 또는 구성요소 등의 존재를 가리키며, 추가적인 하나 이상의 기능, 동작 또는 구성요소 등을 제한하지 않는다. 또한, 본 발명의 다양한 실시예에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 발명의 다양한 실시예에서 “또는” 또는 “ A 또는/및 B 중 적어도 하나” 등의 표현은 함께 나열된 단어들의 어떠한, 그리고 모든 조합을 포함한다. 예를 들어, “A 또는 B” 또는 “ A 또는/및 B 중 적어도 하나” 각각은, A를 포함할 수도, B를 포함할 수도, 또는 A 와 B 모두를 포함할 수도 있다.
본 발명의 다양한 실시예에서 사용된 “제 1,”“제2,”“첫째,”또는“둘째,”등의 표현들은 다양한 실시예들의 다양한 구성요소들을 수식할 수 있지만, 해당 구성요소들을 한정하지 않는다. 예를 들어, 상기 표현들은 해당 구성요소들의 순서 및/또는 중요도 등을 한정하지 않는다. 상기 표현들은 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 수 있다. 예를 들어, 제1 사용자 기기와 제 2 사용자 기기는 모두 사용자 기기이며, 서로 다른 사용자 기기를 나타낸다. 예를 들어, 본 발명의 다양한 실시예의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 새로운 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 새로운 다른 구성요소가 존재하지 않는 것으로 이해될 수 있어야 할 것이다.
본 발명의 다양한 실시예에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명의 다양한 실시예를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명의 다양한 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 발명의 다양한 실시예에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
본 발명의 다양한 실시예에 따른 전자 장치는, 렌더링 기능이 포함된 장치일 수 있다. 예를 들면, 전자 장치는 스마트 폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 화상전화기, 전자북 리더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라(camera), 또는 웨어러블 장치(wearable device)(예: 전자 안경과 같은 head-mounted-device(HMD), 전자 의복, 전자 팔찌, 전자 목걸이, 전자 앱세서리(appcessory), 전자 문신, 또는 스마트 와치(smart watch))중 적어도 하나를 포함할 수 있다.
어떤 실시예들에 따르면, 전자 장치는 렌더링 기능을 갖춘 스마트 가전 제품(smart home appliance)일 수 있다. 스마트 가전 제품은, 예를 들자면, 전자 장치는 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), TV 박스(예를 들면, 삼성 HomeSync™, 애플TV™, 또는 구글 TV™), 게임 콘솔(game consoles), 전자 사전, 전자 키, 캠코더(camcorder), 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
어떤 실시예들에 따르면, 전자 장치는 각종 의료기기(예: MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 초음파기 등), 네비게이션(navigation) 장치, GPS 수신기(global positioning system receiver), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(예: 선박용 항법 장치 및 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛, 산업용 또는 가정용 로봇, 금융 기관의 ATM(automatic teller’s machine) 또는 상점의 POS(point of sales) 중 적어도 하나를 포함할 수 있다.
어떤 실시예들에 따르면, 전자 장치는 렌더링 기능을 포함한 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 입력장치(electronic signature receiving device), 프로젝터(projector), 또는 각종 계측기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 본 발명의 다양한 실시예에 따른 전자 장치는 전술한 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 또한, 본 발명의 다양한 실시예에 따른 전자 장치는 플렉서블 장치일 수 있다. 또한, 본 발명의 다양한 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않음은 당업자에게 자명하다.
이하, 첨부된 도면을 참조하여 다양한 실시예에 따른 전자 장치에 대해서 살펴본다. 다양한 실시예에서 이용되는 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
이하에서는 ‘좌측 이미지’와 ‘우측 이미지’라는 용어를 사용할 것이다. 3차원 데이터의 특성 상 왼쪽 눈에서 바라볼 화상과 오른쪽 눈에서 바라볼 화상이 다르게 표시되는데, 이 때 상기 왼쪽 눈에 보여지는 이미지를 ‘좌측 이미지’로, 오른쪽 눈에 보여지는 이미지를 ‘우측 이미지’로 사용할 것이다. 또한 상기 ‘이미지’라는 용어는‘영상’을 포함하는 개념으로 사용할 것이다.
이하에서 사용되는 ‘렌더링’은 3차원으로 제작된 데이터를 디스플레이에 출력하기 위해 이미지로 생성하여 표시하는 동작을 의미한다. 본 발명의 일 실시예에 따르면, 상기 ‘렌더링’은 3차원 좌표를 갖는 특정 객체를 2차원 좌표를 갖는 2가지 이미지로 제작하는 동작이며, 이 때 각 이미지는 좌측 이미지와 우측이미지로 제작될 수 있다.
도 1은 다양한 실시예에 따른, 전자 장치 101을 포함하는 네트워크 환경 100를 도시한다. 도 1을 참조하면, 상기 전자 장치 101는 버스 110, 프로세서 120, 메모리 130, 입출력 인터페이스 140, 디스플레이 150, 통신 인터페이스 160 및 영상 변환 모듈 170을 포함할 수 있다.
상기 버스 110는 전술한 구성요소들을 서로 연결하고, 전술한 구성요소들 간의 통신(예: 제어 메시지)을 전달하는 회로일 수 있다.
상기 프로세서 120는, 예를 들면, 상기 버스 110를 통해 전술한 다른 구성요소들(예: 상기 메모리 130, 상기 입출력 인터페이스 140, 상기 디스플레이 150, 상기 통신 인터페이스 160, 또는 상기 영상 변환 모듈 170 등)로부터 명령을 수신하여, 수신된 명령을 해독하고, 해독된 명령에 따른 연산이나 데이터 처리를 실행할 수 있다. 또한 상기 프로세서 120는 상기 영상 변환 모듈 170를 포함하여 형성될 수 있으며, 상기 영상 변환 모듈 170의 기능 중 일부 또는 전체를 처리할 수 있다.
본 발명의 다양한 실시예에 따르면, 상기 프로세서 120은 사용자의 3차원 컨텐츠 표시 요구(예컨대, 3차원 게임 실행, 3차원 멀티미디어 데이터 재생 등)에 따라 3차원 컨텐츠를 렌더링하는 동작 및 화면에 표시하는 동작을 수행할 수 있다. 특히, 상기 프로세서 120는 3차원 컨텐츠 표시 요구가 발생되면, 3차원 컨텐츠 표시 프로그램 제작자에 의해 기 설정된(또는 사용자의 선택에 따라 결정된) 기준면 설정값에 따라 3차원 컨텐츠를 렌더링할 수 있다. 상기 렌더링 동작은 앞부분에 설명되었듯이, 3차원 좌표로 제작된 컨텐츠를 좌측 및 우측 시야에 따라 각각 2개의 2차원 이미지로 생성하는 과정을 뜻할 수 있다.
상기 메모리 130는, 상기 프로세서 120 또는 다른 구성요소들(예: 상기 입출력 인터페이스 140, 상기 디스플레이 150, 상기 통신 인터페이스 160, 또는 상기 영상 변환 모듈 170 등)로부터 수신되거나 상기 프로세서 120 또는 다른 구성요소들에 의해 생성된 명령 또는 데이터를 저장할 수 있다. 상기 메모리 130는, 예를 들면, 커널 131, 미들웨어 132, 어플리케이션 프로그래밍 인터페이스(API: application programming interface) 133 또는 어플리케이션 134 등의 프로그래밍 모듈들을 포함할 수 있다. 전술한 각각의 프로그래밍 모듈들은 소프트웨어, 펌웨어, 하드웨어 또는 이들 중 적어도 둘 이상의 조합으로 구성될 수 있다.
본 발명의 다양한 실시예에 따르면, 상기 메모리 130는 전자장치의 동작을 위한 프로그램 및 데이터를 저장하는 역할을 할 수 있다. 본 발명의 실시 예에 따른 상기 메모리 130는 3차원 좌표값을 갖도록 제작된 각종 3차원 컨텐츠와 이러한 3차원 컨텐츠를 렌더링하여 디스플레이 150에 표시하기 위한 프로그램을 저장할 수 있다.
상기 커널 131은 나머지 다른 프로그래밍 모듈들, 예를 들면, 상기 미들웨어 132, 상기 API 133 또는 상기 어플리케이션 134에 구현된 동작 또는 기능을 실행하는 데 사용되는 시스템 리소스들(예: 상기 버스 110, 상기 프로세서 120 또는 상기 메모리 130 등)을 제어 또는 관리할 수 있다. 또한, 상기 커널 131은 상기 미들웨어 132, 상기 API 133 또는 상기 어플리케이션 134에서 상기 전자 장치 101의 개별 구성요소에 접근하여 제어 또는 관리할 수 있는 인터페이스를 제공할 수 있다.
상기 미들웨어 132는 상기 API 133 또는 상기 어플리케이션 134이 상기 커널 131과 통신하여 데이터를 주고받을 수 있도록 중개 역할을 수행할 수 있다. 또한, 상기 미들웨어 132는 상기 어플리케이션 134로부터 수신된 작업 요청들과 관련하여, 예를 들면, 상기 어플리케이션 134 중 적어도 하나의 어플리케이션에 상기 전자 장치 101의 시스템 리소스(예: 상기 버스 110, 상기 프로세서 120 또는 상기 메모리 130 등)를 사용할 수 있는 우선 순위를 배정하는 등의 방법을 이용하여 작업 요청에 대한 제어(예: 스케쥴링 또는 로드 밸런싱)을 수행할 수 있다.
상기 API 133는 상기 어플리케이션 134이 상기 커널 131 또는 상기 미들웨어 132에서 제공되는 기능을 제어하기 위한 인터페이스로, 예를 들면, 파일 제어, 창 제어, 화상 처리 또는 문자 제어 등을 위한 적어도 하나의 인터페이스 또는 함수(예: 명령어)를 포함할 수 있다.
다양한 실시예에 따르면, 상기 어플리케이션 134는 SMS/MMS 어플리케이션, 이메일 어플리케이션, 달력 어플리케이션, 알람 어플리케이션, 건강 관리(health care) 어플리케이션(예: 운동량 또는 혈당 등을 측정하는 어플리케이션) 또는 환경 정보 어플리케이션(예: 기압, 습도 또는 온도 정보 등을 제공하는 어플리케이션) 등을 포함할 수 있다. 추가적으로 또는 대체적으로, 상기 어플리케이션 134은 상기 전자 장치 101와 외부 전자 장치(예: 전자 장치 104) 사이의 정보 교환과 관련된 어플리케이션일 수 있다. 상기 정보 교환과 관련된 어플리케이션은, 예를 들어, 상기 외부 전자 장치에 특정 정보를 전달하기 위한 알림 전달(notification relay) 어플리케이션, 또는 상기 외부 전자 장치를 관리하기 위한 장치 관리(device management) 어플리케이션을 포함할 수 있다.
예를 들면, 상기 알림 전달 어플리케이션은 상기 전자 장치 101 의 다른 어플리케이션(예: SMS/MMS 어플리케이션, 이메일 어플리케이션, 건강 관리 어플리케이션 또는 환경 정보 어플리케이션 등)에서 발생한 알림 정보를 외부 전자 장치(예: 전자 장치 104)로 전달하는 기능을 포함할 수 있다. 추가적으로 또는 대체적으로, 상기 알림 전달 어플리케이션은, 예를 들면, 외부 전자 장치(예: 전자 장치 104)로부터 알림 정보를 수신하여 사용자에게 제공할 수 있다. 상기 장치 관리 어플리케이션은, 예를 들면, 상기 전자 장치 101와 통신하는 외부 전자 장치(예: 전자 장치 104)의 적어도 일부에 대한 기능(예: 외부 전자 장치 자체(또는, 일부 구성 부품)의 턴온/턴오프 또는 디스플레이의 밝기(또는, 해상도) 조절), 상기 외부 전자 장치에서 동작하는 어플리케이션 또는 상기 외부 전자 장치에서 제공되는 서비스(예: 통화 서비스 또는 메시지 서비스)를 관리(예: 설치, 삭제 또는 업데이트)할 수 있다.
다양한 실시예에 따르면, 상기 어플리케이션 134은 상기 외부 전자 장치(예: 전자 장치 104)의 속성(예: 전자 장치의 종류)에 따라 지정된 어플리케이션을 포함할 수 있다. 예를 들어, 외부 전자 장치가 MP3 플레이어인 경우, 상기 어플리케이션 134은 음악 재생과 관련된 어플리케이션을 포함할 수 있다. 유사하게, 외부 전자 장치가 모바일 의료기기인 경우, 상기 어플리케이션 134은 건강 관리와 관련된 어플리케이션을 포함할 수 있다. 한 실시예에 따르면, 상기 어플리케이션 134은 전자 장치 101에 지정된 어플리케이션 또는 외부 전자 장치(예: HMT(head mounted theater) 프레임 106 또는 전자 장치 104)로부터 수신된 어플리케이션 중 적어도 하나를 포함할 수 있다.
상기 입출력 인터페이스 140은, 입출력 장치(예: 센서, 키보드 또는 터치 스크린)를 통하여 사용자로부터 입력된 명령 또는 데이터를, 예를 들면, 상기 버스 110를 통해 상기 프로세서 120, 상기 메모리 130, 상기 통신 인터페이스 160, 또는 상기 영상 변환 모듈 170에 전달할 수 있다. 예를 들면, 상기 입출력 인터페이스 140은 터치 스크린을 통하여 입력된 사용자의 터치에 대한 데이터를 상기 프로세서 120로 제공할 수 있다. 또한, 상기 입출력 인터페이스 140은, 예를 들면, 상기 버스 110을 통해 상기 프로세서 120, 상기 메모리 130, 상기 통신 인터페이스 160, 또는 상기 영상 변환 모듈 170로부터 수신된 명령 또는 데이터를 상기 입출력 장치(예: 스피커 또는 디스플레이)를 통하여 출력할 수 있다. 예를 들면, 상기 입출력 인터페이스 140은 상기 프로세서 120를 통하여 처리된 음성 데이터를 스피커를 통하여 사용자에게 출력할 수 있다.
본 발명의 다양한 실시예에 따르면, 상기 입출력 인터페이스 140는 3차원으로 제작된 화상을 표시하고자 할 시, 3차원 화면 감도 조절을 위한 사용자 입력을 수신할 수 있다. 예컨대, 상기 입출력 인터페이스 140는 3차원 화면의 감도를 낮게(즉, 좌측이미지와 우측이미지의 차이가 감소하도록) 표시하기 위해 기준면 설정에 요구되는 특정 설정값을 변경하는 사용자 입력을 수신할 수 있다.
상기 디스플레이 150은 사용자에게 각종 정보(예: 멀티미디어 데이터 또는 텍스트 데이터 등)을 표시할 수 있다. 상기 디스플레이 150는 액정 디스플레이(LCD: liquid crystal display)유기 발광 다이오드(OLED: organic light emitting diodes), 능동형 유기 발광 다이오드(AMOLED: active matrix light emitting diodes)등으로 형성될 수 있으며, 전자장치의 메뉴, 입력된 데이터, 기능 설정 정보 등 다양한 정보를 사용자에게 시각적으로 제공할 수 있다. 본 발명의 실시 예에 따른 상기 디스플레이 150은 3차원으로 제작된 이미지, 영화, 게임 등을 표시할 수 있다. 또한 상기 디스플레이 150는 프로세서 120의 제어 하에 일부 오브젝트에 한하여 좌측이미지 및 우측이미지로 분리하는 동작을 수행하지 않을 수 있다. 이와 같이 좌우 이미지 분리 동작을 수행하지 않도록 설정된 경우, 디스플레이 150를 통해 표시되는 3차원 화면의 입체감은 줄어들고, 렌더링 속도는 증가할 수 있다.
또한, 상기 디스플레이 150는 일 실시 예에 따라 HMD(head mounted display)과 같은 착용식 전자장치에서 2개의 표시 영역을 갖도록 형성될 수 있다. 이 때 상기 디스플레이 150는 제 1표시영역 및 제 2표시영역으로 나뉘어 각각의 영역에 좌측 이미지 및 우측 이미지를 표시할 수 있다. 예컨대, 제 1표시영역에서는 좌측 이미지를, 제 2표시영역에서는 우측 이미지를 표시할 수 있다. 또한 다양한 실시 예에 따라 상기 전자장치는 HMT(head mounted theater) 프레임에 장착되어 연동될 수 있다. 상기 전자장치는 HMT 프레임에 장착될 시, 하나의 디스플레이 150에서 제 1표시 영역 및 제 2표시 영역을 분리하여 표시할 수 있다. 그리고 상기 디스플레이 150는 분리된 각각의 표시 영역을 이용하여 각각 좌측 눈에서 바라볼 영상과 우측 눈에서 바라보게 될 영상을 표시할 수 있다.
상기 통신 인터페이스 160은 상기 전자 장치 101와 외부 장치(예: 전자 장치 104 또는 HMT 프레임 106) 간의 통신을 연결할 수 있다. 예를 들면, 상기 통신 인터페이스 160은 무선 통신 또는 유선 통신을 통해서 네트워크 162에 연결되어 상기 외부 장치와 통신할 수 있다. 상기 무선 통신은, 예를 들어, Wifi(wireless fidelity), BT(Bluetooth), NFC(near field communication), GPS(global positioning system) 또는 cellular 통신(예: LTE, LTE-A, CDMA, WCDMA, UMTS, WiBro 또는 GSM 등) 중 적어도 하나를 포함할 수 있다. 상기 유선 통신은, 예를 들어, USB(universal serial bus), HDMI(high definition multimedia interface), RS-232(recommended standard 232) 또는 POTS(plain old telephone service) 중 적어도 하나를 포함할 수 있다.
한 실시예에 따르면, 상기 네트워크 162는 통신 네트워크(telecommunications network)일 수 있다. 상기 통신 네트워크 는 컴퓨터 네트워크(computer network), 인터넷(internet), 사물 인터넷(internet of things) 또는 전화망(telephone network) 중 적어도 하나를 포함할 수 있다. 한 실시예에 따르면, 상기 전자 장치 101와 외부 장치 간의 통신을 위한 프로토콜(예: transport layer protocol, data link layer protocol 또는 physical layer protocol))은 어플리케이션 134, 어플리케이션 프로그래밍 인터페이스 133, 상기 미들웨어 132, 커널 131 또는 통신 인터페이스 160 중 적어도 하나에서 지원될 수 있다.
본 발명의 다양한 실시예에 따르면, 상기 영상 변환 모듈 170은, 다른 구성요소들(예: 상기 프로세서 120, 상기 메모리 130, 상기 입출력 인터페이스 140, 또는 상기 통신 인터페이스 160 등)로부터 획득된 영상 정보 중 적어도 일부를 처리하고, 이를 다양한 방법으로 사용자에게 제공 할 수 있다. 예를 들면, 상기 영상 변환 모듈 170는 상기 프로세서 120를 이용하여 또는 이와는 독립적으로, 화면에 표시할 3차원 좌표값을 갖는 영상 정보를 2개의 2차원 좌표 값을 갖는 영상으로 렌더링할 수 있다.
도 2은 다양한 실시예들에 따른, 전자 장치(예: 전자 장치 100)의 영상 변환 모듈 170의 블록도 200를 도시한다. 도 2을 참조하면, 상기 영상 변환 모듈 170은 컨텐츠 획득 모듈 210, 렌더링 모듈 220을 포함할 수 있다.
상기 컨텐츠 획득 모듈 210은, 예를 들면, 외부 장치(예: 전자 장치 104)와의 유무선 통신을 통해 수신된 3차원 컨텐츠를 획득할 수 있다. 또는 상기 컨텐츠 획득 모듈 210은 전자장치 내 메모리 130에 저장된 3차원 컨텐츠를 획득할 수 있다.
상기 렌더링 모듈 220은, 상기 획득된 3차원 컨텐츠를 구성하는 각 오브젝트의 위치를 기준면에 따라 분류할 수 있다. 예를 들면, 렌더링 모듈 220는 각 오브젝트들의 위치를 기준면에 기반하여 포그라운드 영역, 좌우 분리 영역, 백그라운드 영역 중 어느 영역에 속하는지 판단할 수 있다. 그리고 상기 렌더링 모듈 220은 포그라운드 영역에 속한 오브젝트는 공통이미지인 포그라운드 이미지로 생성하고, 백그라운드 영역에 속한 오브젝트는 공통이미지인 백그라운드 이미지로 생성할 수 있다. 그리고 상기 렌더링 모듈 220은 좌우 분리 영역에 속한 오브젝트를 제 1좌측 이미지, 제 1우측 이미지로 분리 생성할 수 있다. 이후 상기 렌더링 모듈 220은 제 1좌측 이미지와 공통이미지인 포그라운드 이미지 및 백그라운드 이미지 각각을 특정 오프셋 값을 적용하여 순차적으로 합성할 수 있다. 마찬가지로 상기 렌더링 모듈 220은 제 1우측 이미지에 공통이미지인 포그라운드 이미지 및 백그라운드 이미지 각각을 특정 오프셋 값을 적용하여 순차적으로 합성할 수 있다. 이와 같이 상기 렌더링 모듈 220은 제 1좌측 이미지와 공통 이미지를 합성하여 최종이미지인 제 2좌측 이미지와, 제 1우측 이미지와 공통 이미지를 합성하여 최종이미지인 제 2우측 이미지 각각을 생성할 수 있다.
앞서 설명한 바와 같이, 본 발명의 실시 예에 따른 전자장치는 3차원 컨텐츠 및 구동 프로그램을 저장하는 메모리, 3차원 컨텐츠 표시 요청에 따라 상기 3차원 컨텐츠에 설정된 기준면을 확인하고, 상기 기준면에 기반하여 상기 컨텐츠를 구성하는 이미지의 오브젝트를 분류하고, 상기 분류된 오브젝트를 이용하여 제 1좌측 이미지 및 제 1우측 이미지 및 공통 이미지를 구분 생성하며, 상기 제 1좌측 이미지와 제 1우측 이미지에 각각 공통 이미지를 합성하도록 제어하는 프로세서 및 상기 제 1좌측 이미지와 상기 공통 이미지가 합성된 제 2좌측 이미지와 상기 제 1우측 이미지와 상기 공통 이미지가 합성된 제 2우측 이미지를 표시하는 디스플레이를 포함할 수 있다.
상기 프로세서는 상기 기준면에 기반하여 오브젝트가 표시되는 전체 영역을 백그라운드 영역, 좌우 분리 영역 및 포그라운드 영역으로 분류하고, 상기 좌우 분리 영역에 존재하는 오브젝트는 제 1좌측 이미지 및 제 1우측 이미지로 생성하고, 상기 백그라운드 영역과 포그라운드 영역에 존재하는 오브젝트는 공통 이미지로 생성할 수 있다.
또한, 상기 프로세서는 상기 렌더링에 사용되는 양측 관점의 중앙에서 정면으로 뻗은 중심선과 일측 관점에서 특정 각도로 상기 중심선을 바라보는 시선의 교점이 포함되는 일면을 기준면으로 설정할 수 있다. 그리고 상기 프로세서는 상기 특정 각도를 고정된 기 설정 값 또는 사용자의 설정에 의해 변경 가능한 값으로 적용할 수 있다. 이 때 상기 상기 프로세서는 상기 오브젝트를 하나의 오브젝트로 처리할 경우, 상기 오브젝트로 제 1좌측 이미지와 제 1우측 이미지를 생성하거나 또는 상기 오브젝트로 공통 이미지를 생성할 수 있다.
그리고 상기 프로세서는 상기 합성된 이미지간의 어긋남이 발생된 경우, 상기 이미지에 오프셋 값을 적용하여 오류를 해소할 수 있다. 이 때 상기 오프셋 값은 렌더링에 사용되는 양측 관점의 중앙과 일측 관점 사이의 거리에 대응하는 값으로 설정될 수 있다. 그리고 상기 프로세서는 상기 오류를 해소하기 위해 상기 제 1좌측이미지에 합성된 공통 이미지를 오프셋 값만큼 우측 이동시키고, 상기 제 1우측이미지에 합성된 공통 이미지는 오프셋 값만큼 좌측 이동시키는 동작을 수행할 수 있다.
이하에서는 렌더링의 개념에 대한 이해를 돕기 위해 도 3를 참조하기로 한다. 본 발명의 다양한 실시예에 따르면, 도 3는 렌더링 동작을 설명하는 도면이다. 도 3의 300은 렌더링 전 3차원 좌표로 제작된 오브젝트가 표시된 3차원 이미지를 나타낸다. 이와 같은 3차원 이미지는 전자장치에서 3차원의 입체로 표현되기 위해 왼쪽 관점에서 보는 이미지 310와 우측 관점에서 보는 이미지 320으로 분리되어 표시될 수 있다. 상기 310과 320에서 도시되는 바와 같이 보는 관점이 달라짐에 따라 사물의 위치뿐 아니라 각도 또한 다르게 보일 수 있음은 자명하다. 그리고 상기 300에서 보이는 오브젝트의 일 지점 301의 좌표는 예컨대 (1,1,1)로 3축 값을 가질 수 있다. 그리고 렌더링이 수행됨에 따라 좌측 이미지 310에서의 상기 오브젝트의 동일 지점 301 좌표는 (2,1)과 같고, 우측 이미지 320에서의 동일 지점 301의 좌표는 (-1,1)과 같을 수 있다. 이처럼 렌더링은 3차원 좌표 값을 갖는 오브젝트를 2차원의 좌표를 갖는 이미지를 2개로 표시하는 동작을 의미할 수 있다. 그리고 상기 도 3에서 제시된 좌표값은 3차원 좌표가 2차원의 좌표로 변경되는 예시를 든 것일 뿐이며, 실제 렌더링 시 좌표 계산 방식과 무관하다.
본 발명의 실시 예에 따른 상기 프로세서 120는 이러한 렌더링 시 기준면보다 사용자의 시야에 가까운 위치의 오브젝트(예컨대, 좌우 분리 영역의 오브젝트)와 사용자의 시야에서 기준면보다 먼 위치의 오브젝트(예컨대, 백그라운드 영역의 오브젝트)를 구분하여 별도로 렌더링 동작을 수행할 수 있다. 설명의 편의를 위해 X, Y, Z축으로 구성된 가상의 공간을 도입하기로 한다. 상기 X축은 화면의 가로, Y축은 화면의 세로, Z축은 화면의 앞뒤를 나타내는 축이라고 할 때, 기준면은 XY평면으로 형성될 수 있고, 상기 기준면의 위치는 Z축 값에 따라 달라질 수 있다. 그리고 상기 Z값은 사용자의 시야에 가까울수록 그 값이 큰 것으로 가정할 수 있다. 이에 따라, 상기 임의 기준면 앞 오브젝트는 기준면보다 Z값이 큰 오브젝트로 표현될 수 있다. 이는 임의 기준면 뒤 오브젝트에 대해서도 마찬가지로 상기 기준면보다 Z값이 작은 오브젝트로 표현될 수 있다.
상기 프로세서 120는 3차원 컨텐츠를 좌측 및 우측이미지로 분리 생성 시, 임의 기준면의 앞에 있는 특정 영역(예컨대, 좌우 영역)의 오브젝트(들)만을 사용할 수 있다. 다시 말해, 상기 프로세서 120은 임의 기준면 뒤 오브젝트(들)를 대상으로는 별도의 분리 과정 없이 공통 이미지로 남겨둘 수 있다. 그리고 상기 프로세서 120는 상기 임의 기준면 앞 오브젝트를 이용하여 생성한 좌측 이미지와 우측이미지에 상기 기준면 뒤 오브젝트로 생성한 공통 이미지를 각각 합성할 수 있다. 그리고 상기 합성 과정을 통해 사용자에게 표시되는 최종의 좌측이미지와 우측이미지를 생성할 수 있다. 또한, 임의 기준면 앞 오브젝트의 이미지와 임의 기준면 뒤 오브젝트의 이미지를 합성할 때, 합성되는 이미지 간의 중심점이 맞지 않아 뒤틀려 보이는 오류가 발생될 수 있다. 상기 프로세서 120는 합성된 이미지에 오프셋 값을 적용하여 임의 기준면 앞뒤 오브젝트간의 어긋남 현상을 제거할 수 있다. 이 밖에도 상기 프로세서 120는 3차원 컨텐츠를 이용하여 3차원 화면을 구현하는 데 요구되는 다양한 동작(예컨대, 기준면 위치 확인, 기준면 설정 값 변경 여부 확인 등)을 수행할 수 있다.
이하에서는 도 4a 내지 도 9를 참조하여 3차원 화면을 구현하는 과정을 설명하기로 한다. 도 4a 및 도 4b는 본 발명의 실시 예에 따른 3차원 화면을 구현하는 동작의 과정을 도시한 순서도이다.
먼저 도 4a를 살펴보면, 프로세서 120는 405동작에서 3차원 컨텐츠 표시 요청을 확인할 수 있다.
상기 405동작은 예컨대, 3차원 게임의 실행 요청을 확인하는 동작이 될 수 있다. 상기 프로세서 120는 3차원 컨텐츠 표시 요청을 확인하면, 410동작에서 상기 3차원 컨텐츠에서 렌더링할 3차원 이미지에서 기준면을 확인할 수 있다.
상기 기준면은 2종류의 이미지(좌측이미지 및 우측이미지)로 나뉠 오브젝트와 공통으로 보여질 오브젝트를 구분하는 기준이 될 수 있다. 상기 기준면은 3차원 컨텐츠 관련 프로그램 제조 시 디폴트 값으로 설정되어 있을 수 있고, 사용자의 요구에 따라 변경 가능할 수도 있다. 예컨대, 저사양의 전자장치에서 렌더링 할 경우 또는 큰 용량의 3차원 컨텐츠를 렌더링할 경우, 사용자는 기준면의 위치를 조정하여보다 많은 오브젝트가 공통 이미지로 생성되도록 할 수 있으며, 이에 따라 렌더링 속도를 향상시킬 수 있다. 상기 기준면은 경우에 따라 제 1기준면 및 제 2기준면으로 2개가 생성될 수 있다.
상기 프로세서 120는 렌더링하고자 하는 3차원 이미지에서 기준면을 확인하면, 415동작에서 상기 기준면에 기반하여 오브젝트를 분류할 수 있다. 이후 상기 프로세서 120는 420동작에서 상기 분류된 오브젝트를 이용하여 제 1좌측 이미지, 제 1우측이미지, 공통이미지를 생성할 수 있다. 다시 말해, 상기 프로세서 120는 상기 이미지의 전체 오브젝트를 좌측 및 우측 이미지로 분리하지 않고, 특정 오브젝트에 한하여 분리하기 위해, 공통 이미지로 표시될 오브젝트들을 별도로 분류할 수 있다. 상기 오브젝트 분류 동작 및 이미지 생성 동작에 관하여서는 하단의 도 5a 내지 도 7d를 참조하여 설명하기로 한다.
420동작에서 제 1 좌측 이미지 및 제 1 우측 이미지 및 공통 이미지가 생성되면, 상기 프로세서 120는 생성된 제 1 좌측 이미지와 제 1 우측 이미지에 공통 이미지를 각각 합성할 수 있다. 그리하여 프로세서 120는 430동작에서 상기 3차원 이미지를 제 2좌측이미지와, 제 2우측이미지를 생성할 수 있다. 이와 같이 최종적으로 제 2 좌측 이미지와 제 2 우측 이미지를 생성하는 렌더링 동작이 완료되면 상기 프로세서 120는 435동작에서 상기 생성된 제 2 좌측 이미지와 제 2 우측 이미지를 화면에 표시할 수 있다. 이 때 제 2 좌측 이미지와 제 2 우측 이미지는 2개의 디스플레이 150를 가진 전자장치(예컨대, HMD) 또는 HMT(head mounted theater)에 장착된 전자장치에서 표시될 경우, 2개로 분리된 표시 영역(제 1표시 영역, 제 2표시 영역)에 각각 따로 표시될 수 있다. 또한 상기 제 2 좌측이미지와 제 2 우측이미지는 하나의 디스플레이 150에서 동시에 같이 표시될 수 있다. 이러한 표시방식을 선택한 경우, 사용자는 편광 방식의 안경을 통해 걸러진 제 2좌측 이미지와 제 2우측이미지를 각각 좌안 및 우안을 통해 볼 수 있다.
상기 415동작 내지 425동작에 대하여 보다 구체적으로 설명하기 위해 도 4b를 참조하기로 한다.
먼저 프로세서 120는 440동작에서 표시하고자 하는 3차원 이미지에서 기준면에 기반하여 백그라운드(background) 영역과 좌우 분리 영역과 포그라운드(foreground) 영역을 구분할 수 있다. 예컨대, 제 1기준면을 기준으로 시야에서 보다 먼 영역을 백그라운드 영역, 제 1기준면과 제 2기준면 사이에 있는 영역을 좌우 분리영역, 제 2기준면보다 시야에서 가까운 영역을 포그라운드 영역으로 구분할 수 있다. 상기 백그라운드 영역에는 좌안 및 우안에 의한 시각 차이를 무시할 수 있을 정도로 시야에서 멀리 떨어진 거리에 존재하는 오브젝트가 포함될 수 있다. 그리고 상기 포그라운드 영역은 사용자의 시선과 매우 가까우며 2차원적으로 표현 가능한 오브젝트를 포함할 수 있다. 예컨대, 상기 포워드 영역에는 메뉴 창, 자막 등이 포함될 수 있다.
상기 프로세서 120는 이후 445동작에서 좌우 분리 영역에 존재하는 오브젝트를 이용하여 제 1우측이미지와 제 1좌측 이미지로 생성할 수 있다. 그리고 상기 프로세서 120는 450동작에서 백그라운드 영역에 있는 오브젝트를 백그라운드 이미지(제 1공통이미지)로, 포그라운드 영역에 있는 오브젝트를 포그라운드 이미지(제2 공통 이미지)로 생성할 수 있다.
이 때, 상기 제 1기준면과 제 2기준면은 경우에 따라 둘 다 생성될 수도 있고, 둘 중 어느 하나만 생성될 수도 있다. 예를 들어, 제 1기준면만 존재하는 경우는 좌우 분리 영역과 백그라운드영역으로만 구분될 수 있다. 만약, 백그라운드 영역 없이 포그라운드 영역과 좌우 분리 영역만 생성되었고, 포그라운드 영역에는 자막에 해당하는 오브젝트가 존재하고, 좌우 분리 영역에 간단한 오브젝트들만 있다고 가정하면, 상기 프로세서 120는 상기 간단한 오브젝트들은 양안 분리하고, 자막은 공통이미지로 생성할 수 있다.
상기 프로세서 120는 455동작에서 제 1 좌측 이미지에 제 1공통 이미지 및 제 2 공통이미지를 순차적으로 합성할 수 있다. 455동작에서와 같이 제 1 좌측 이미지에 제 1 공통 이미지 및 제 2 공통 이미지가 합성되면 제 2좌측 이미지가 생성될 수 있다. 이 때 상기 제 1공통이미지와 제 2공통이미지 각각은 최종 이미지 생성을 위해 반드시 필요한 요소는 아니며 둘 중 하나만 존재하는 경우에도 무방하다. 상기 프로세서 120는 460동작에서 제 1 우측 이미지에 제 1 공통 이미지 및 제 2공통이미지를 순차적으로 합성하는 동작을 수행할 수 있다. 상기 제 1 우측 이미지에 제 1공통 이미지 및 제 2 공통이미지가 합성되면 제 2 우측 이미지가 생성될 수 있다.
이하에서는 상기 도 4a에서 설명한 오브젝트 분류 동작 및 이미지 생성 동작에 대한 이해를 돕기 위해 도 5a 내지 도 7d를 참조하기로 한다.
도 5a 내지 도 5c는 본 발명의 실시 예에 따른 렌더링 시 오브젝트의 위치변화를 도시한 도면이다.
도 5a는 3차원 컨텐츠의 일 이미지에 8개의 오브젝트가 표시됨을 도시하고 있다. 이 때 상기 도 5a에 도시된 오브젝트들의 위치는 양쪽 눈을 모두 사용하여 바라볼 때의 위치에 상응할 수 있다. 상기 도 5a의 이미지를 렌더링하여 2종류의 이미지(좌측 이미지, 우측 이미지)로 분리할 경우에는 각각 도 5b와 도 5c와 같이 될 수 있다. 이 때 상기 8개의 오브젝트의 위치는 도 5b에서와 도 5c에서 각각 다르며, 도 5b에 도시된 오브젝트들의 위치는 왼쪽 눈의 시각에 따라 표시되었고, 도 5c에 도시된 오브젝트들은 오른쪽 눈의 시각에 따라 표시된 것이다. 따라서, 일 이미지에 존재하는 오브젝트가 상기 제시한 개수보다 훨씬 더 많을 경우에도, 각각의 오브젝트들을 일일이 상이한 위치로 분리하여 표시하게 되므로, 렌더링 시 계산량이 많아지고 속도가 더딜 수 있다.
그러나 본 발명의 실시 예에 따르면, 도 6에서 도시되는 기준면 603을 중심으로 2개의 위치로 나누어 표시할 오브젝트들과 공통적으로 표시할 오브젝트들을 구분할 수 있다.
도 6는 본 발명의 실시 예에 따른 기준면을 도시한 도면이다.
본 발명의 실시 예에 따르면, 하나의 제 1 기준면 603은 일측 관점(눈)에서 각도 606로 바라본 시선 609과 양측 관점의 중앙에서 정면으로 뻗은 일직선 607(이하 중심선)이 교차하는 지점 604이 존재하는 일 면 603으로 정해질 수 있다. 이 때 상기 각도 606는 중심선 607을 향하는 일측 시선 609과 이미지의 평면이 이루는 각도를 의미할 수 있다.
그리고 상기 각도 606은 사용자 설정에 따라 변경될 수 있다. 기준면을 결정하기 위한 각도가 610일 경우 좌측 관점(눈)에서의 시선은 608과 같고 이 때 형성되는 기준면은 613이 될 수 있다. 즉, 상기 시선의 각도가 클수록 기준면의 상대적인 위치는 시야에서 멀어지고, 상기 각도가 작을수록 기준면의 상대적인 위치는 시야에서 가까울 수 있다. 즉, 상기 기준면은 X, Y, Z 축이 존재하는 가상의 공간(X축: 화면의 가로, Y축: 화면의 세로, Z축: 화면의 앞뒤로 가정)에서 Z축 값의 변화에 따라 그 위치가 이동될 수 있다. 예컨대, Z축 값이 사용자에 가까울수록 커진다고 가정하면, 상기 특정 각도가 클수록 상기 기준면의 Z축 좌표 값은 작아질 수 있다.
제 1 기준면 603을 기준으로 이미지의 오브젝트들은 구분될 수 있다. 오브젝트 601은 상기 제 1 기준면603 앞의 좌우 이미지 영역에 존재하므로 두 종류의 이미지(제 1 좌측 이미지, 제 1 우측 이미지)로 분리될 수 있다. 반면, 오브젝트 602는 기준면 603 뒤의 백그라운드 이미지 영역에 공통 이미지로 생성될 수 있다.
본 발명의 실시 예에 따른 렌더링 시, 제 1기준면 603의 뒤의 백그라운드 이미지 영역에 존재하는 오브젝트로 생성된 공통이미지와 상기 제 1 기준면603 앞의 좌우 이미지 영역에 존재하는 오브젝트로 생성된 제 1 좌측 이미지 또는 제 1 우측 이미지를 합성하는 동작이 수행될 수 있다. 이 때 합성된 이미지간의 어긋남 현상이 발생될 수 있는데, 이를 해소하기 위해 오프셋 값은 상기 어긋난 이미지에 적용될 수 있다. 그리고 상기 오프셋 값은 중심선 607과 좌측 눈(사용자의 눈이 아니라, 제 1좌측 이미지를 생성하는 데 사용된 관점을 뜻함) 사이의 거리 605에 대응하는 값으로 설정될 수 있다. 그리고 상기 오프셋 값은 합성된 공통이미지의 위치 값의 변화량을 뜻할 수 있다. 예컨대, 상기 오프셋 값은 좌측 이미지에 적용될 경우, 양의 값이 될 수 있으며 (예, +1), 우측 이미지에 적용될 경우, 음의 값(예, -1)이 될 수 있다. 다시 말해, 오프셋 값이 적용된 좌측 이미지는 공통이미지가 오프셋 값만큼 우측 이동하고, 우측 이미지의 경우 그 반대가 될 수 있다.
도 7a 내지 7d는 본 발명의 실시 예에 따른 렌더링 시 오브젝트의 위치변화를 도시한 도면이다. 상기 도 7a 내지 도 7d는 상기 도 4a의 425동작에 대하여 구체적으로 도시하고 있다. 이 중 상기 도 7a는 3차원 이미지 렌더링 시 제 1 기준면 603을 기준으로 앞에 위치한 오브젝트(기준면보다 Z축 좌표값이 큰 오브젝트)와 뒤에 위치한 오브젝트(기준면보다 Z축 좌표값이 작은 오브젝트)로 구분하는 동작에 대해 도시하고 있다. 상기 제 1 기준면 603의 앞의 영역 712에 있는 오브젝트들은 사용자의 시야에서 보다 가까워 보이는 영역에 존재하는 것으로 가정될 수 있다. 반대로 711영역은 제 1 기준면 603 뒤에 있으므로 왼쪽 눈 및 오른쪽 눈이 바라보는 시각차이가 작을 것으로 여겨질 수 있다. 그리고 앞서 설명한 바와 같이 상기 제 1 기준면 앞의 영역 712에 존재하는 오브젝트들 701, 702, 703, 704는 제 1좌측 이미지와 제 1우측이미지로 각각 2개의 이미지에서 상이한 좌표 값을 갖도록 설정될 수 있다. 반면 기준면 뒤의 영역 711에 존재하는 오브젝트들 705, 706, 707, 708은 공통 이미지로 설정될 수 있다.
도 7b 내지 도 7d는 본 발명의 실시 예에 따른 이미지 생성 동작을 도시하고 있다. 먼저 렌더링 시 생성되는 좌측 이미지 (제 2 좌측 이미지)는 제 1좌측 이미지와 공통이미지를 합성하여 생성될 수 있다. 도 7b의 710은 제 1 기준면 603뒤의 백그라운드 이미지 영역에 존재하는 오브젝트들로 생성된 공통 이미지(백그라운드 이미지)를 도시하고 있다. 그리고 720은 제 1 기준면 603앞의 좌우 이미지 영역에 존재하는 오브젝트들로 생성된 제 1좌측이미지를 도시하고 있다. 상기 좌우 이미지 영역에 존재하는 720의 오브젝트들 701, 702, 703, 704의 위치는 좌측 시야의 우측에 치우쳐 있는 것으로 나타내어지고 있다. 그리고 제 2 좌측 이미지 730은 제 1 좌측 이미지인 720과 공통 이미지인 710을 합성하여 얻을 수 있다.
도 7c는 제 2우측이미지를 얻기 위한 동작에 대하여 도시하고 있다. 도 7c의 740은 백그라운드 이미지 영역에 존재하는 오브젝트들을 도시하고 있으며 도 7b의 710과 동일하다. 상기 740은 제 1 기준면 603보다 시야에서 먼 곳에 존재하는 오브젝트들 705, 706, 707, 708이 공통이미지인 백그라운드 이미지로 생성된 것을 도시하고 있다. 그리고 750은 제 1 기준면 603 앞의 오브젝트들 701, 702, 703, 704로 생성된 제 1우측이미지를 도시하고 있다. 상기 750의 오브젝트들의 위치는 우측시야의 좌측에 치우쳐 있는 것으로 도시되고 있다. 그리고 상기 제 1우측 이미지 750과 상기 공통 이미지 740을 합성하면 제 2 우측 이미지 760가 얻어질 수 있다. 앞서 제 1 기준면 603을 중심으로 백그라운드 이미지 영역의 오브젝트가 공통이미지로 생성되고, 좌우이미지 영역의 오브젝트가 제 1좌측 이미지와 제 1우측 이미지로 생성되는 동작에 대하여 설명하였다. 이하에서는 7d를 참조하여 기준면에 걸쳐 존재하는 오브젝트의 렌더링 방법에 대하여 설명하기로 한다.
도 7d를 살펴보면, 770에서 하나의 오브젝트가 상기 제 1 기준면 603의 앞, 뒤에 걸쳐 존재하는 모습이 도시되고 있다. 그리고 상기 오브젝트 771의 이미지는 실제 화면에 표시될 경우, 780과 같이 보여질 수 있다. 그리고 상기 제 1기준면 603에 걸쳐 존재하는 오브젝트 771는 디폴트 값 또는 사용자 설정 값에 따라 제 1 기준면 603의 앞 또는 뒤의 오브젝트 중 어느 하나로 처리될 수 있다. 예를 들어, 사용자가 제 1 기준면 603에 걸쳐 존재하는 오브젝트 771을 기준면 뒤의 영역인 백그라운드 이미지 영역의 오브젝트로 처리하도록 설정하였다면, 상기 오브젝트 771은 렌더링 시 780의 781지점과 782 지점을 포함하여 모두 공통이미지인 백그라운드 이미지로 생성될 수 있다.
또한, 상기 오브젝트 771은 제 1 기준면 603을 기준으로 두 종류의 오브젝트로 분류되어 처리될 수 있다. 상세하게는 상기 오브젝트 771은 제 1 기준면 603의 앞에 위치된 폴리곤(polygon)들과 제 1 기준면 603의 뒤에 위치된 폴리곤들로 나뉘어 처리될 수 있다. 상기 폴리곤이란 각각의 오브젝트를 이루는 기본 단위가 되는 다각형(예컨대, 삼각형)을 뜻하며, 하나의 오브젝트는 다수개의 폴리곤으로 구성될 수 있다. 이에 따라, 제 1 기준면 603의 앞뒤에 걸쳐 위치된 하나의 오브젝트 771은 기준면 603을 기준으로 두 개의 폴리곤 집합으로 나뉠 수 있다. 그리고 제 1 기준면 603 앞에 있는 폴리곤 집합은 제 1 좌측 이미지와 제 1 우측 이미지로 생성되며, 제 1기준면 603 뒤에 있는 폴리곤 집합은 공통 이미지로 생성될 수 있다.
780을 참조하면, 렌더링 시, 하나의 오브젝트라 하더라도 제 1 기준면 603 앞에 있는 지점 781과 기준면 603 뒤에 있는 지점 782을 구성하는 폴리곤들은 각각 분류되어 별개의 오브젝트처럼 처리될 수 있다. 예컨대, 상기 781에 해당하는 폴리곤들은 제 1 좌측 이미지와 제 1우측 이미지로 분리 생성되고, 782에 해당하는 폴리곤들은 공통 이미지로 생성될 수 있다.
또 다른 실시 예에 따라, 프로세서 120는 기준면에 특정 오브젝트가 걸쳐 있는 경우 해당 오브젝트의 속성에 따라 기준면의 위치를 재정의할 수 있다. 상기 기준면의 위치는 일정 오차범위를 갖도록 설정될 수 있으며, 기준면의 위치에 걸쳐 있는 오브젝트가 두 개의 폴리곤 집합으로 나뉘어 처리되기에 부적합한 경우 상기 기준면의 위치를 오차범위 내에서 변경될 수 있다. 두 개의 폴리곤 집합으로 나뉘어 처리되기에 부적합한 오브젝트는 예컨대, 문자, 아이콘 등과 같이 복잡도가 낮은 이미지가 해당될 수 있다. 반대로 비교적 복잡도가 높은 오브젝트들은 두 개의 폴리곤 집합으로 분리되어 처리될지라도 사용자가 인지하지 못할 가능성이 크다. 따라서, 상기 프로세서 120는 다양한 실시 예에 따라, 기준면에 걸친 오브젝트를 렌더링할 경우, 해당 오브젝트의 구성 폴리곤의 수 등을 기준으로 복잡도를 판단하여 오브젝트 분리 여부를 결정할 수 있다.
앞서 설명에서는 제 1기준면 603만을 기준으로 공통이미지와 좌우 이미지가 분리 생성되는 실시 예에 대하여 기술하였다. 그러나 다양한 실시 예에 따라 본 발명의 동작 시 제 2기준면이 추가로 생성될 수 있으며, 제 2기준면을 기준으로도 공통이미지로 생성될 오브젝트와 좌우이미지로 생성될 오브젝트들이 분류될 수 있다. 이에 따라 도 4b에서 설명한 바와 같이 오브젝트는 백그라운드 영역, 포그라운드 영역 및 좌우 분리 영역에 따라 분류될 수 있다. 이에 대한 설명을 보다 상세히 기술하기 위해 도 8 내지 9를 참조하기로 한다.
도 8은 본 발명의 실시 예에 따라 제 2기준면을 중심으로 공통이미지와 좌우이미지로 생성될 오브젝트들을 분류하는 것에 대하여 도시한다. 도 8을 참조하면, 제 2기준면 813을 중심으로 오브젝트들이 포그라운드 영역 810과 좌우 분리 영역 820으로 구분된 것을 보여주고 있다. 이 때 상기 포그라운드 영역 810에 존재하는 오브젝트는 공통이미지인 포그라운드 이미지로 생성될 수 있다. 이 때 상기 포그라운드 이미지로 생성되는 오브젝트는 801, 802가 해당될 수 있으며, 예컨대 자막, 메뉴 화면과 같은 2차원의 오브젝트가 이에 해당될 수 있다.그리고 좌우 분리 영역 820에 존재하는 오브젝트들은 803, 804, 805, 806, 807, 808가 해당될 수 있다.
도 9는 본 발명의 실시 예에 따른 기준면에 따른 오브젝트 분류 방법에 대하여 도시하는 도면이다. 상기 도 9에서는 제 1기준면 603과 제 2 기준면 813이 모두 존재하는 경우에 대한 동작을 도시하고 있다. 이와 같이 제 1기준면 603과 제 2기준면 813이 모두 존재하는 경우, 오브젝트들이 존재하는 영역은 3가지로 분류될 수 있다. 먼저 제 1기준면 603과 제 2기준면 813의 사이에 위치되는 영역은 좌우 분리 영역 920으로 분류될 수 있다. 그리고 제 1 기준면 603 보다 시야에서 먼 영역은 백그라운드 영역 930으로 분류될 수 있다. 이에 따라, 좌우 분리 영역 920에 있는 오브젝트들 903, 904, 905는 제 1 좌측 이미지, 제 1 우측 이미지로 분류될 수 있다. 그리고 포그라운드 영역 910의 오브젝트들 901, 902와 백그라운드 영역 930의 오브젝트들 906, 907, 908은 각각 공통이미지인 포그라운드 이미지와 백그라운드 이미지로 생성될 수 있다. 상기 백그라운드 이미지는 좌안과 우안으로 바라볼 때의 위치 차이가 크지 않은 것으로 간주되는 오브젝트로 생성되는 공통 이미지를 의미할 수 있다. 반면, 상기 포그라운드 이미지는 시야에서 매우 가까운 거리에 놓이게 되는 2차원 오브젝트(예컨대, 자막)로 생성되는 공통 이미지를 의미할 수 있다. 이 때 상기 포그라운드 이미지 및 백그라운드 이미지는 공통으로 생성되는 이미지이므로, 제 1좌측 이미지 또는 제 1우측 이미지와 합성될 경우, 합성되는 이미지간의 어긋남 현상이 발생될 수 있다. 상기 이미지 어긋남 현상 및 이를 보정하기 위한 동작을 설명하기 위해 도 10a 내지 도 12를 참조하기로 한다.
도 10a 내지 도 10e는 본 발명의 실시 예에 따른 최종 이미지 생성 동작을 도시하고 있는 도면이다.
도 10a 내지 도 10e는 오브젝트의 상대적인 위치에 관계없이 오브젝트 전체를 좌우 이미지로 분리하여 렌더링하는 기존 방법과 본 발명의 실시 예에 따른 방법으로 얻은 결과를 비교하여 도시하고 있다. 참고로 1005 내지 1017에서 도시되는 이미지를 구성하는 각각의 오브젝트들은 1001에서 도시되는 바와 같이 배열되어 있는 것으로 가정하기로 한다. 그리고 상기 1001에서 z좌표 값이 클수록 사용자의 시야에 가까운 것으로 볼 수 있다. 예컨대 1001의 1번 내지 4번의 오브젝트들 중 사용자의 시야에서 가까운 오브젝트는 1번 오브젝트이고, 사용자의 시야에서 가장 먼 오브젝트는 4번 오브젝트이다. 1번 오브젝트와 2번 오브젝트는 제1 기준면 603 보다 사용자에 가까운 위치에 있으며 3번 오브젝트와 4번 오브젝트는 제 1기준면 603 보다 사용자로부터 먼 곳에 위치된 것을 도시하고 있다.
도 10a의 1005 및 1007은 상기 1001에서 도시되는 오브젝트 전체를 좌우 이미지로 분리 렌더링한 경우의 최종 이미지를 나타내고 있으며, 1015 및 1017은 본 발명의 실시 예에 따른 최종 이미지를 나타내고 있다. 상기 1015는 제 1좌측이미지 1013와 백그라운드 이미지 1012가 합성된 최종 이미지를 나타내고 있으며, 제 2우측 이미지 1017은 제 1 우측 이미지 1014와 백그라운드 이미지 1012가 합성된 최종 이미지를 도시하고 있다.
이하에서는 도 10b 를 참조하여 상기 10a에서 도시된 최종 이미지 중 1005와 1007를, 도 10c를 참조하여 1015 및 1017을 보다 상세히 살펴보기로 한다.
도 10b는 종래 기술에 따라 전체 오브젝트를 좌우로 분리하여 렌더링한 최종 좌측 이미지 1005와 최종 우측 이미지 1007를 도시하고 있다. 이 때 1005와 1007에서는 개별 오브젝트들 간의 거리가 모두 다르게 보여질 수 있다. 예컨대, 3번 오브젝트와 4번 오브젝트 간의 거리는 1005에서 상대적으로 멀고, 1007에서 상대적으로 가깝게 보일 수 있다. 이 밖에도 4번 오브젝트와 2번 오브젝트 또는 1번 오브젝트와의 거리도 1005와 1007에서 다르게 보일 수 있다. 이와 같이 전체 오브젝트를 좌우로 분리하여 렌더링하게 된 경우, 최종 좌측 이미지 1005와 최종 우측 이미지 1007에 표시되는 각 오브젝트의 위치는 모두 다를 수 있다. 반면, 본 발명의 실시 예에 따른 렌더링 방법을 이용하는 경우, 일부 오브젝트에 한하여 좌우 이미지간 간격이 같게 표시될 수 있다. 이를 도 10c를 참조하여 설명하기로 한다.
도 10c는 본 발명의 실시 예에 따라 렌더링한 결과로 얻어진 최종 좌측 이미지(제 2좌측 이미지) 1015와 최종 우측 이미지(제2 우측이미지) 1017을 도시하고 있다. 상기 1015와 1017을 구성하는 3번 오브젝트와 4번 오브젝트는 공통 이미지(10a의 1012)로부터 얻어진 이미지이다. 따라서, 3번 오브젝트와 4번 오브젝트 간의 간격은 1015와 1017에서 동일하게 도시된다. 참고로, 상기 1015와 1017은 공통 이미지와 제 1좌측이미지 또는 제 1우측 이미지와 합성할 때 오프셋 값을 적용하지 않은 상태를 도시하고 있다. 본 발명의 실시 예에 따른 렌더링 시 좌측 이미지가 생성되기 위해 사용되는 왼쪽 눈과 우측 이미지가 생성되기 위한 오른쪽 눈의 거리 차이만큼 좌측 및 우측 이미지 내 오브젝트의 위치가 상이한 데 반해, 공통 이미지 내 오브젝트의 위치는 동일하게 생성됨에 따라 공통 이미지의 위치 오류가 발생될 수 있다. 이러한 오류를 해결하기 위해 본 발명의 실시 예에 따른 동작은 오프셋 값 적용 동작(예컨대, 좌우 쉬프팅)을 포함할 수 있다. 상기 오프셋 값을 적용하는 동작에 대하여는 별도의 도면을 참조하여 하기에 설명하기로 한다.
도 10d를 살펴보면, 제 1좌측 이미지 1013과 제 1우측 이미지 1014와 공통이미지인 포그라운드 이미지 1022가 합성되는 동작을 도시하고 있고, 각 이미지에 포함된 오브젝트들의 상대적인 위치는 1002에서 도시되고 있다. 그리고 상기 포그라운드 이미지는 사용자의 시야에 매우 가깝게 위치하는 2차원의 이미지를 의미할 수 있다. 일반적으로 사용자의 시야에 매우 가깝게 위치하는 오브젝트의 경우 좌안 및 우안에서 바라보는 거리 차이가 가장 크지만, 2차원 이미지의 경우 이러한 차이를 고려하여 렌더링 할 필요가 없다. 따라서, 시야에 매우 가깝게 위치한 2차원의 이미지는 공통 이미지(포그라운드 이미지)로 설정하는 것이 가능하다. 이러한 포그라운드 이미지로 설정될 수 있는 오브젝트는 예컨대, 자막, 팝업창 등과 같은 2차원 이미지일 수 있다.
참고로, 도 10d의 1002는 도 10d에서 도시되는 이미지에 포함된 오브젝트들의 z축 좌표에 따른 위치를 도시하고 있다. 상기 1002에서는 z축 좌표 값이 클수록 사용자의 시야에 가까움을 의미할 수 있다. 그리고 상기 1002에서는 포그라운드 오브젝트인 3번 오브젝트가 제 2 기준면 613보다 사용자의 시야에 가까운 지점에 위치된 것이 도시되고 있고, 1번 오브젝트와 2번 오브젝트는 제 2기준면 613보다 시용자의 시야에 먼 곳에 있음이 도시되고 있다.
상기 1002에서 도시되는 오브젝트들을 기존 방법에 따라 기준면 설정 없이 오브젝트 전체를 좌우 이미지로 분리하여 렌더링한 경우, 최종으로 형성되는 좌측이미지는 1025와 같고, 우측 이미지는 1027과 같다.10b에서 설명한 바와 마찬가지로 이 때 상기 좌측 이미지 1025와 우측 이미지 1027에서 도시되는 오브젝트들은 모두 각기 다른 위치에서 표시될 수 있고, 각 오브젝트간 거리 또한 다르게 표시될 수 있다. 반면, 본 발명의 실시 예에 따른 렌더링 수행 시, 제 1좌측 이미지 1013과 공통 이미지인 포그라운드 이미지 1022를 합성하여 제 2좌측 이미지 1035가 생성될 수 있다. 그리고 제 1우측 이미지 1014와 상기 포그라운드 이미지 1022가 합성되어 제 2우측 이미지 1037이 생성될 수 있다.
기준면 설정 없이 오브젝트 전체를 좌우 이미지로 분리하여 렌더링하는 기존 방법으로 생성된 최종 이미지 1025, 1027에서는 각각 모든 오브젝트(예컨대, 1번, 2번, 3번 오브젝트)의 위치가 다르게 표시될 수 있다. 반면, 본 발명의 실시 예에 따른 최종 이미지 1035와 1037 모두에서 공통이미지를 구성하는 포그라운드 오브젝트(3번 오브젝트)는 동일한 위치에 표시되고, 1번 및 2번 오브젝트는 서로 다른 위치에서 표시되고 있다. 이에 따라 포그라운드 오브젝트(3번 오브젝트)와 1번 오브젝트 및 2번 오브젝트 간의 간격은 좌안 및 우안의 시차를 고려하지 않고 어긋나 보이는 오류가 발생된다. 이를 해결하기 위해서는 공통 이미지 합성 시 특정 오프셋 값을 적용하여야 하는데 이에 대하여는 별도의 도면을 참조하여 설명하기로 한다.
도 10e는 제 1좌측 이미지와 제 1우측이미지에 2가지의 공통 이미지(포그라운드 이미지, 백그라운드 이미지)가 합성되는 결과에 대하여 도시하고 있다. 상기 도 10e에 도시되는 오브젝트들의 상대적인 z축 위치는 1003에서 도시되는 바와 같다. 그리고 상기 10e에서 기준면 설정 없이 모든 오브젝트들 각각을 좌우 이미지로 분리하여 렌더링하는 기존 방법에 의한 최종 이미지는 1045와 1047과 같다. 상기 1045와 1047 각각에서 도시되는 1번 내지 5번 오브젝트는 각각 좌안 및 우안에 따라 보이는 위치에 대응하도록 렌더링되었으므로, 그 위치가 모두 다르게 표시될 수 있다.
또한 10e에서는 백그라운드 이미지 1012, 제 1좌측 이미지 1013 및 포그라운드 이미지 1022가 합성되어 제 2좌측 이미지 1055가 생성됨을 도시하고 있다. 그리고 백그라운드 이미지 1012, 제 1우측 이미지 1014 및 포그라운드 이미지 1022가 합성되어 제 2우측 이미지 1057이 생성될 수 있다. 본 발명의 실시 예에 따라 렌더링된 최종 이미지 1055와 1057에서 좌우 이미지로부터 합성된 1번 및 2번 오브젝트는 위치가 상이하게 표시될 수 있다. 반면, 공통 이미지인 백그라운드 이미지 1012로부터 합성된 3번 및 4번 오브젝트는 1055와 1057에서 각각 동일 위치에 표시될 수 있다. 마찬가지로 공통이미지인 포그라운드 이미지 1022로부터 합성된 5번 오브젝트도 1055와 1057에서 각각 동일 위치에서 표시될 수 있다. 이에 따라 합성된 최종 이미지에서 오브젝트간의 위치가 어긋나 보이는 오류가 발생될 수 있다.
이와 같은 오류는 도 11a 및 도 11b에서 도시되는 것과 같이 이미지의 어긋남으로 나타날 수 있다. 도 11a 및 도 11b는 본 발명의 실시 예에 따른 오프셋 값 적용 동작에 대하여 도시하는 도면이다. 상기 도 11a의 1110는 3차원의 도로 이미지의 제 2좌측 이미지를 도시하고 있다. 상기 1110은 제 1좌측 이미지 1112와 공통 이미지(백그라운드 이미지) 1111의 합성으로 생성된 이미지이며, 제 1 좌측 이미지 1112는 공통 이미지(백그라운드 이미지) 1111의 오브젝트에 비해 비교적 우측에 오브젝트가 치우쳐있을 수 있다. 제 1 기준면 603 앞의 오브젝트와 제 1기준면 603 뒤의 오브젝트가 어긋나는 정도는 제 1 기준면 603을 생성하는 각도인 도 6의 606이 작을수록 더 클 수 있다. 다시 말해, 상기 제 1 기준면 603의 위치가 시야에서 가까운 거리에 위치할수록 어긋남의 정도는 더 심해질 수 있다. 이처럼 공통이미지(백그라운드 이미지)와 제 1좌측 이미지간의 어긋남은 상기 공통이미지(백그라운드 이미지)에 오프셋 값을 설정하여 1120에서 도시되는 바와 같이 해소될 수 있다. 상기 공통 이미지 1121에 설정된 오프셋 값은 중심선(도 6의 607)과 좌측 눈(사용자의 눈이 아니라, 제 1좌측 이미지를 생성하는 데 사용된 관점을 뜻함) 사이의 거리(도 6의 605 참조)에 대응하는 값을 가질 수 있다. 그리고 상기 공통 이미지(백그라운드 이미지) 1121은 오프셋 값만큼 우측 이동된 위치로 표시될 수 있다.
도 11b의 1130은 제 2우측 이미지에서 어긋남이 발생된 경우를 도시하고 있다. 상기 1130은은 3차원의 도로 이미지의 제 2 우측 이미지를 도시하고 있다.
상기 1130은 공통이미지(백그라운드 이미지) 1131과 제 1우측 이미지 1132의 합성으로 생성된 이미지이다. 그리고 상기 제 1 우측이미지 1132의 오브젝트는 공통 이미지 1131의 오브젝트에 비해 좌측에 치우쳐있는 것으로 보여질 수 있다. 이러한 어긋남 현상을 해소하기 위해 마찬가지로 상기 공통이미지 1131에 오프셋 값을 설정할 수 있다. 그 결과 1140에서 도시되는 바와 같이 어긋남 현상은 해결될 수 있다. 이 때의 상기 공통 이미지 1131에 설정된 오프셋 값은 중심선(도 6의 607 참조)과 우측 눈(제 1우측 이미지를 생성하는 데 사용된 관점) 사이의 거리에 대응하는 값으로 설정될 수 있다. 상기 제 2 우측이미지에서 상기 공통 이미지 1131는 오프셋 값만큼 좌측 이동되어 1141과 같이 표시될 수 있다. 이와 같은 오프셋 값 적용 동작은 백그라운드 이미지에서만 해당되는 사항이 아니며, 포그라운드 이미지에서도 동일한 방법으로 적용될 수 있다.
도 12는 본 발명의 실시 예에 따른 포그라운드 이미지가 합성된 최종 이미지가 표시되는 화면을 도시하는 도면이다.
도 12의 1210은 제 1좌측 이미지에 포그라운드 이미지 1205(예컨대, 2차원의 메뉴 화면)와 백그라운드 이미지 1230 가 합성된 제 2좌측 이미지를 도시하고 있다. 예컨대, 상기 합성된 이미지는 포그라운드 이미지 1205와 백그라운드 이미지 1230가 상기 제 1좌측 이미지에 각각 순차적으로 합성된 이미지일 수 있다. 그리고 1220은 포그라운드 이미지 1205, 백그라운드 이미지 1230과 제 1우측 이미지가 합성된 제 2 우측 이미지를 도시하고 있다. 상기 제 2좌측 이미지 1210와 제 2우측 이미지 1220을 비교하면, 공통 이미지인 백그라운드 이미지 1230과 포그라운드 이미지 1205는 제 2좌측 이미지 1210과 제 2우측 이미지 1220에서 동일한 위치에 표시되고 있으며, 공통이미지가 아닌 이미지들은 서로 다른 위치에 표시되고 있다. 이와 같이 포그라운드 이미지 1205도 공통 이미지로써 합성되므로, 상기 포그라운드 이미지 1205와 제 1 좌측 이미지 또는 제 1우측 이미지 사이에서도 어긋남 현상이 발생될 수 있다. 그러므로 상기 포그라운드 이미지 1205에도 소정의 오프셋 값을 적용하여 최종 이미지 생성시 어긋남 현상을 해소할 수 있다. 도 12에서 도시되는 바와 같이 포그라운드 이미지1205 및 백그라운드 이미지 1230이 모두 합성된 경우, 각 이미지에 대한 오프셋 값이 다를 수 있으므로 오프셋 값 적용 동작은 포그라운드 이미지와 백그라운드 이미지에 대하여 각각 별도로 수행될 수 있다.
도 13는 본 발명의 다양한 실시 예에 따른 메뉴 화면에서의 3차원 구현 동작을 도시하고 있다.
상기 도 13의 1310은 전자장치에서 3차원 좌표 값을 갖도록 설정된 메뉴 화면을 도시하고 있다. 상기 1310에서 어플리케이션 실행 아이콘들이 나선형으로 위치된 것을 도시하는 메뉴화면이다. 상기 1310에서 도시되는 오브젝트 1311은 상대적으로 가깝게 위치 설정되어있으며, 오브젝트 1312는 상대적으로 1311에 비해 멀리 있는 것으로 설정되어 있다. 이와 같이 상하, 좌우에 해당하는 좌표 값뿐 아니라 사용자로부터 가깝거나 먼 정도가 설정되어 있는 컨텐츠들은 본 발명의 실시 예에 따른 렌더링 방식이 적용 가능하다. 본 발명의 실시 예에 따라 상기 1310의 경우 예컨대, 오브젝트 1311은 좌우 이미지 영역의 오브젝트로 분류되고, 오브젝트 1312는 백그라운드 이미지 영역의 오브젝트로 분류될 수 있다. 이 밖에도 다양하게 디자인된 3차원 좌표 값을 갖는 메뉴에서 본 발명의 실시 예가 적용 가능하다. 상기 1310과 같은 메뉴 화면뿐 아니라, 1320과 같은 특정 어플리케이션(이미지 표시 어플리케이션)에서도 3차원 좌표가 설정되어 있는 오브젝트가 존재하는 경우 본 발명의 실시 예가 적용될 수 있다. 예컨대, 오브젝트 1321은 좌우 이미지 영역에 존재하고, 오브젝트 1322는 백그라운드 이미지 영역에 존재할 수 있다. 이와 같은 경우 상기 오브젝트 1321는 제 1좌측이미지와 제 1우측이미지로 분리 생성될 수 있으나, 오브젝트 1322는 공통 이미지로 생성될 수 있다.
앞서 설명한 바와 같이, 본 발명의 다양한 실시 예에 따른 컨텐츠의 렌더링 방법은 3차원 컨텐츠 표시 요청에 응답하여, 상기 3차원 컨텐츠에 설정된 적어도 하나의 기준면을 확인하는 동작, 상기 기준면에 기반하여 오브젝트를 분류하는 동작, 상기 분류된 오브젝트를 이용하여 제 1좌측 이미지, 제 1우측 이미지 및 공통 이미지를 생성하는 동작 및 상기 제 1좌측 이미지와 제 1우측 이미지에 각각 공통 이미지를 합성하는 동작을 포함할 수 있다.
그리고, 상기 오브젝트를 분류하는 동작은 상기 기준면에 기반하여 오브젝트가 표시되는 전체 영역을 백그라운드 이미지 영역, 좌우 분리 영역 및 포그라운드 영역으로 분류하는 동작을 포함하고, 상기 이미지를 생성하는 동작은 상기 좌우 분리 영역에 존재하는 오브젝트는 제 1좌측 이미지 및 제 1우측 이미지로 생성하고, 상기 백그라운드 영역과 포그라운드 영역에 존재하는 오브젝트는 공통 이미지로 생성하는 동작을 포함할 수 있다.
또한, 상기 기준면은 상기 렌더링에 사용되는 양측 관점의 중앙에서 정면으로 뻗은 중심선과 일측 관점에서 특정 각도로 상기 중심선을 바라보는 시선의 교점이 포함되는 일 면이고, 상기 특정 각도는 고정된 기 설정 값이거나 사용자의 설정에 의해 변경될 수 있다.
또한, 이미지 생성 시, 하나의 오브젝트가 상기 기준면의 양 영역에 모두 존재하는 경우, 하나의 오브젝트가 상기 기준면의 양 영역에 모두 존재하는 경우, 상기 오브젝트는 하나의 오브젝트로 처리되거나 또는 상기 기준면을 기준으로 분리되어 처리될 수 있다. 이 때 상기 오브젝트를 하나의 오브젝트로 처리할 경우에는, 상기 오브젝트로 제 1 좌측 이미지와 1우측 이미지를 생성하는 동작 또는 상기 오브젝트로 공통 이미지를 생성하는 동작 중 어느 하나가 수행될 수 있다.
제 1좌측이미지 또는 제 1우측이미지에 공통 이미지를 합성하는 동작은 합성된 이미지간의 어긋남이 발생된 경우, 상기 이미지에 오프셋 값을 적용하여 오류를 해소할 수 있다. 상기 오프셋 값은 렌더링에 사용되는 양측 관점의 중앙과 일측 관점 사이의 거리에 대응하는 값으로 설정될 수 있다. 상기 오류를 해소하는 방법은 상기 제 1좌측 이미지에 합성한 공통 이미지는 오프셋 값만큼 우측 이동시키고 상기 제 1우측 이미지에 합성된 공통 이미지는 오프셋 값만큼 좌측 이동시키는 동작이 될 수 있다.
또한, 본 발명의 실시 예는 제 1좌측이미지에 공통 이미지가 합성된 제 2좌측 이미지와, 제 1우측 이미지에 공통 이미지가 합성된 제 2 우측 이미지를 표시하는 동작을 포함할 수 있다.
도 14는 다양한 실시예들에 따른 전자 장치 1401의 블록도 1400를 도시한다. 상기 전자 장치 1401는, 예를 들면, 도 1에 도시된 전자 장치 101의 전체 또는 일부를 구성할 수 있다. 도 14을 참조하면, 상기 전자 장치 1401는 하나 이상의 어플리케이션 프로세서(AP: application processor) 1410, 통신 모듈 1420, SIM(subscriber identification module) 카드 1424, 메모리 1430, 센서 모듈 1440, 입력 장치 1450, 디스플레이 1460, 인터페이스 1470, 오디오 모듈 1480, 카메라 모듈 1491, 전력관리 모듈 1495, 배터리 1496, 인디케이터 1497 및 모터 1498 를 포함할 수 있다.
상기 AP 1410는 운영체제 또는 응용 프로그램을 구동하여 상기 AP 1410에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 멀티미디어 데이터를 포함한 각종 데이터 처리 및 연산을 수행할 수 있다. 상기 AP 1410는, 예를 들면, SoC(system on chip) 로 구현될 수 있다. 한 실시예에 따르면, 상기 AP 1410는 GPU(graphic processing unit, 미도시)를 더 포함할 수 있다.
상기 통신 모듈 1420(예: 상기 통신 인터페이스 160)은 상기 전자 장치 1401(예: 상기 전자 장치 101)와 네트워크를 통해 연결된 다른 전자 장치들(예: 전자 장치 104 또는 HMT 프레임 106) 간의 통신에서 데이터 송수신을 수행할 수 있다. 한 실시예에 따르면, 상기 통신 모듈 1420은 셀룰러 모듈 1421, Wifi 모듈 1423, BT 모듈 1425, GPS 모듈 1427, NFC 모듈 1428 및 RF(radio frequency) 모듈 1429를 포함할 수 있다.
상기 셀룰러 모듈 1421은 통신망(예: LTE, LTE-A, CDMA, WCDMA, UMTS, WiBro 또는 GSM 등)을 통해서 음성 통화, 영상 통화, 문자 서비스 또는 인터넷 서비스 등을 제공할 수 있다. 또한, 상기 셀룰러 모듈 1421은, 예를 들면, 가입자 식별 모듈(예: SIM 카드 1424)을 이용하여 통신 네트워크 내에서 전자 장치의 구별 및 인증을 수행할 수 있다. 한 실시예에 따르면, 상기 셀룰러 모듈 1421은 상기 AP 1410가 제공할 수 있는 기능 중 적어도 일부 기능을 수행할 수 있다. 예를 들면, 상기 셀룰러 모듈 1421은 멀티 미디어 제어 기능의 적어도 일부를 수행할 수 있다.
한 실시예에 따르면, 상기 셀룰러 모듈 1421은 커뮤니케이션 프로세서(CP: communication processor)를 포함할 수 있다. 또한, 상기 셀룰러 모듈 1421은, 예를 들면, SoC로 구현될 수 있다. 도 14에서는 상기 셀룰러 모듈 1421(예: 커뮤니케이션 프로세서), 상기 메모리 1430 또는 상기 전력관리 모듈 1495 등의 구성요소들이 상기 AP 1410와 별개의 구성요소로 도시되어 있으나, 한 실시예에 따르면, 상기 AP 1410가 전술한 구성요소들의 적어도 일부(예: 셀룰러 모듈 1421)를 포함하도록 구현될 수 있다.
한 실시예에 따르면, 상기 AP 1410 또는 상기 셀룰러 모듈 1421(예: 커뮤니케이션 프로세서)은 각각에 연결된 비휘발성 메모리 또는 다른 구성요소 중 적어도 하나로부터 수신한 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리할 수 있다. 또한, 상기 AP 1410 또는 상기 셀룰러 모듈 1421은 다른 구성요소 중 적어도 하나로부터 수신하거나 다른 구성요소 중 적어도 하나에 의해 생성된 데이터를 비휘발성 메모리에 저장(store)할 수 있다.
상기 Wifi 모듈 1423, 상기 BT 모듈 1425, 상기 GPS 모듈 1427 또는 상기 NFC 모듈 1428 각각은, 예를 들면, 해당하는 모듈을 통해서 송수신되는 데이터를 처리하기 위한 프로세서를 포함할 수 있다. 도 14에서는 셀룰러 모듈 1421, Wifi 모듈 1423, BT 모듈 1425, GPS 모듈 1427 또는 NFC 모듈 1428이 각각 별개의 블록으로 도시되었으나, 한 실시예에 따르면, 셀룰러 모듈 1421, Wifi 모듈 1423, BT 모듈 1425, GPS 모듈 1427 또는 NFC 모듈 1428 중 적어도 일부(예: 두 개 이상)는 하나의 integrated chip(IC) 또는 IC 패키지 내에 포함될 수 있다. 예를 들면, 셀룰러 모듈 1421, Wifi 모듈 1423, BT 모듈 1425, GPS 모듈 1427 또는 NFC 모듈 1428 각각에 대응하는 프로세서들 중 적어도 일부(예: 셀룰러 모듈 1421에 대응하는 커뮤니케이션 프로세서 및 Wifi 모듈 1423에 대응하는 Wifi 프로세서)는 하나의 SoC로 구현될 수 있다.
상기 RF 모듈 1429는 데이터의 송수신, 예를 들면, RF 신호의 송수신을 할 수 있다. 상기 RF 모듈 1429는, 도시되지는 않았으나, 예를 들면, 트랜시버(transceiver), PAM(power amp module), 주파수 필터(frequency filter) 또는 LNA(low noise amplifier) 등을 포함할 수 있다. 또한, 상기 RF 모듈 1429는 무선 통신에서 자유 공간상의 전자파를 송수신하기 위한 부품, 예를 들면, 도체 또는 도선 등을 더 포함할 수 있다. 도 14에서는 셀룰러 모듈 1421, Wifi 모듈 1423, BT 모듈 1425, GPS 모듈 1427 및 NFC 모듈 1428이 하나의 RF 모듈 1429을 서로 공유하는 것으로 도시되어 있으나, 한 실시예에 따르면, 셀룰러 모듈 1421, Wifi 모듈 1423, BT 모듈 1425, GPS 모듈 1427 또는 NFC 모듈 1428 중 적어도 하나는 별개의 RF 모듈을 통하여 RF 신호의 송수신을 수행할 수 있다.
상기 SIM 카드 1424는 가입자 식별 모듈을 포함하는 카드일 수 있으며, 전자 장치의 특정 위치에 형성된 슬롯에 삽입될 수 있다. 상기 SIM 카드 1424는 고유한 식별 정보(예: ICCID(integrated circuit card identifier)) 또는 가입자 정보(예: IMSI(international mobile subscriber identity))를 포함할 수 있다.
상기 메모리 1430(예: 상기 메모리 130)는 내장 메모리 1432 또는 외장 메모리 1434를 포함할 수 있다. 상기 내장 메모리 1432는, 예를 들면, 휘발성 메모리(예를 들면, DRAM(dynamic RAM), SRAM(static RAM), SDRAM(synchronous dynamic RAM) 등) 또는 비휘발성 메모리(non-volatile Memory, 예를 들면, OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, NAND flash memory, NOR flash memory 등) 중 적어도 하나를 포함할 수 있다.
한 실시예에 따르면, 상기 내장 메모리 832는 Solid State Drive (SSD)일 수 있다. 상기 외장 메모리 1434는 flash drive, 예를 들면, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital) 또는 Memory Stick 등을 더 포함할 수 있다. 상기 외장 메모리 1434는 다양한 인터페이스를 통하여 상기 전자 장치 1401과 기능적으로 연결될 수 있다. 한 실시예에 따르면, 상기 전자 장치 1401는 하드 드라이브와 같은 저장 장치(또는 저장 매체)를 더 포함할 수 있다.
상기 센서 모듈 1440은 물리량을 계측하거나 전자 장치 1401의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 상기 센서 모듈 1440은, 예를 들면, 제스처 센서 1440A, 자이로 센서 1440B, 기압 센서 1440C, 마그네틱 센서 1440D, 가속도 센서 1440E, 그립 센서 1440F, 근접 센서 1440G, color 센서 1440H(예: RGB(red, green, blue) 센서), 생체 센서 1440I, 온/습도 센서 1440J, 조도 센서 1440K 또는 UV(ultra violet) 센서 1440M 중의 적어도 하나를 포함할 수 있다. 추가적으로 또는 대체적으로, 상기 센서 모듈 1440은, 예를 들면, 후각 센서(E-nose sensor, 미도시), EMG 센서(electromyography sensor, 미도시), EEG 센서(electroencephalogram sensor, 미도시), ECG 센서(electrocardiogram sensor, 미도시), IR(infra red) 센서(미도시), 홍채 센서(미도시) 또는 지문 센서(미도시) 등을 포함할 수 있다. 상기 센서 모듈 1440은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다.
상기 입력 장치 1450은 터치 패널(touch panel) 1452, (디지털) 펜 센서(pen sensor) 1454, 키(key) 1456 또는 초음파(ultrasonic) 입력 장치 1458를 포함할 수 있다. 상기 터치 패널 1452은, 예를 들면, 정전식, 감압식, 적외선 방식 또는 초음파 방식 중 적어도 하나의 방식으로 터치 입력을 인식할 수 있다. 또한, 상기 터치 패널 1452은 제어 회로를 더 포함할 수도 있다. 정전식의 경우, 물리적 접촉 또는 근접 인식이 가능하다. 상기 터치 패널 1452은 택타일 레이어(tactile layer)를 더 포함할 수도 있다. 이 경우, 상기 터치 패널 1452은 사용자에게 촉각 반응을 제공할 수 있다.
상기 (디지털) 펜 센서 1454는, 예를 들면, 사용자의 터치 입력을 받는 것과 동일 또는 유사한 방법 또는 별도의 인식용 쉬트(sheet)를 이용하여 구현될 수 있다. 상기 키 1456는, 예를 들면, 물리적인 버튼, 광학식 키 또는 키패드를 포함할 수 있다. 상기 초음파(ultrasonic) 입력 장치 1458는 초음파 신호를 발생하는 입력 도구를 통해, 전자 장치 1401에서 마이크(예: 마이크 1488)로 음파를 감지하여 데이터를 확인할 수 있는 장치로서, 무선 인식이 가능하다. 한 실시예에 따르면, 상기 전자 장치 801는 상기 통신 모듈 1420를 이용하여 이와 연결된 외부 장치(예: 컴퓨터 또는 HMT 프레임)로부터 사용자 입력을 수신할 수도 있다.
상기 디스플레이 1460(예: 상기 디스플레이 150)은 패널 1462, 홀로그램 장치 1464 또는 프로젝터 1466을 포함할 수 있다. 상기 패널 1462은, 예를 들면, LCD(liquid-crystal display) 또는 AM-OLED(active-matrix organic light-emitting diode) 등일 수 있다. 상기 패널 1462은, 예를 들면, 유연하게(flexible), 투명하게(transparent) 또는 착용할 수 있게(wearable) 구현될 수 있다. 상기 패널 1462은 상기 터치 패널 1452과 하나의 모듈로 구성될 수도 있다. 상기 홀로그램 장치 1464은 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 상기 프로젝터 1466는 스크린에 빛을 투사하여 영상을 표시할 수 있다. 상기 스크린은, 예를 들면, 상기 전자 장치 1401의 내부 또는 외부에 위치할 수 있다. 한 실시예에 따르면, 상기 디스플레이 1460은 상기 패널 1462, 상기 홀로그램 장치 1464, 또는 프로젝터 1466를 제어하기 위한 제어 회로를 더 포함할 수 있다.
상기 인터페이스 1470는, 예를 들면, HDMI(high-definition multimedia interface) 1472, USB(universal serial bus) 1474, 광 인터페이스(optical interface) 1476 또는 D-sub(D-subminiature) 1478를 포함할 수 있다. 상기 인터페이스 1470는, 예를 들면, 도 1에 도시된 통신 인터페이스 160에 포함될 수 있다. 추가적으로 또는 대체적으로, 상기 인터페이스 1470는, 예를 들면, MHL(mobile high-definition link) 인터페이스, SD(secure Digital) 카드/MMC(multi-media card) 인터페이스 또는 IrDA(infrared data association) 규격 인터페이스를 포함할 수 있다.
상기 오디오 모듈 1480은 소리(sound)와 전기신호를 쌍방향으로 변환시킬 수 있다. 상기 오디오 모듈 1480의 적어도 일부 구성요소는, 예를 들면, 도 1 에 도시된 입출력 인터페이스 140에 포함될 수 있다. 상기 오디오 모듈 1480은, 예를 들면, 스피커 1482, 리시버 1484, 이어폰 1486 또는 마이크 1488 등을 통해 입력 또는 출력되는 소리 정보를 처리할 수 있다.
상기 카메라 모듈 1491은 정지 영상 및 동영상을 촬영할 수 있는 장치로서, 한 실시예에 따르면, 하나 이상의 이미지 센서(예: 전면 센서 또는 후면 센서), 렌즈(미도시), ISP(image signal processor, 미도시) 또는 플래쉬 (flash, 미도시)(예: LED 또는 xenon lamp)를 포함할 수 있다.
상기 전력 관리 모듈 1495은 상기 전자 장치 1401의 전력을 관리할 수 있다. 도시하지는 않았으나, 상기 전력 관리 모듈 1495은, 예를 들면, PMIC(power management integrated circuit), 충전 IC(charger integrated circuit) 또는 배터리 또는 연료 게이지(battery or fuel gauge)를 포함할 수 있다.
상기 PMIC는, 예를 들면, 집적회로 또는 SoC 반도체 내에 탑재될 수 있다. 충전 방식은 유선과 무선으로 구분될 수 있다. 상기 충전 IC는 배터리를 충전시킬 수 있으며, 충전기로부터의 과전압 또는 과전류 유입을 방지할 수 있다. 한 실시예에 따르면, 상기 충전 IC는 유선 충전 방식 또는 무선 충전 방식 중 적어도 하나를 위한 충전 IC를 포함할 수 있다. 무선 충전 방식으로는, 예를 들면, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등이 있으며, 무선 충전을 위한 부가적인 회로, 예를 들면, 코일 루프, 공진 회로 또는 정류기 등의 회로가 추가될 수 있다.
상기 배터리 게이지는, 예를 들면, 상기 배터리 1496의 잔량, 충전 중 전압, 전류 또는 온도를 측정할 수 있다. 상기 배터리 1496는 전기를 저장 또는 생성할 수 있고, 그 저장 또는 생성된 전기를 이용하여 상기 전자 장치 1401에 전원을 공급할 수 있다. 상기 배터리 1496는, 예를 들면, 충전식 전지(rechargeable battery) 또는 태양 전지(solar battery)를 포함할 수 있다.
상기 인디케이터 1497는 상기 전자 장치 1401 혹은 그 일부(예: 상기 AP 1410)의 특정 상태, 예를 들면, 부팅 상태, 메시지 상태 또는 충전 상태 등을 표시할 수 있다. 상기 모터 1498는 전기적 신호를 기계적 진동으로 변환할 수 있다. 도시되지는 않았으나, 상기 전자 장치 1401는 모바일 TV 지원을 위한 처리 장치(예: GPU)를 포함할 수 있다. 상기 모바일 TV지원을 위한 처리 장치는, 예를 들면, DMB(digital multimedia broadcasting), DVB(digital video broadcasting) 또는 미디어플로우(media flow) 등의 규격에 따른 미디어 데이터를 처리할 수 있다.
본 발명의 다양한 실시예에 따른 모듈 또는 프로그래밍 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 본 발명의 다양한 실시예에 따른 모듈, 프로그래밍 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)한 방법으로 실행될 수 있다. 또한, 일부 동작은 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
그리고 본 명세서와 도면에 개시된 본 발명의 실시예들은 본 발명의 실시예에 따른 동작의 기술 내용을 쉽게 설명하고 본 발명의 실시예의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 실시예의 범위를 한정하고자 하는 것은 아니다. 따라서 본 발명의 다양한 실시예의 범위는 여기에 개시된 실시예들 이외에도 본 발명의 다양한 실시예의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 발명의 다양한 실시예의 범위에 포함되는 것으로 해석되어야 한다.
120: 프로세서
130: 메모리
140: 입출력 인터페이스
150: 디스플레이
160: 통신 인터페이스
170: 영상 변환 모듈
    

Claims (20)

  1. 컨텐츠의 렌더링 방법에 있어서,
    3차원 컨텐츠 표시 요청에 응답하여,
    상기 3차원 컨텐츠에 설정된 제1기준면 및 상기 제1기준면보다 사용자 시선을 기준으로 상대적으로 먼 곳에 위치하는 제2기준면 중 적어도 하나를 결정하는 동작;
    상기 3차원 컨텐츠에 대응되는 오브젝트를, 상기 결정된 적어도 하나의 제1기준면 또는 제2기준면에 대한 상대적 위치에 기초하여 제 1좌측 이미지 및 제 1우측 이미지 중 적어도 하나의 이미지에 해당하는 오브젝트 및 적어도 하나의 공통 이미지에 해당하는 오브젝트로 분류하고, 상기 제1기준면보다 사용자 시선을 기준으로 더 가까운 곳에 위치하는 하나 이상의 오브젝트 또는 상기 제2기준면보다 사용자 시선을 기준으로 더 먼 곳에 위치한 오브젝트를 상기 적어도 하나의 공통 이미지에 해당하는 오브젝트로 분류하는 동작;
    상기 분류된 오브젝트를 이용하여 제 1좌측 이미지, 제 1우측 이미지 및 적어도 하나의 공통 이미지를 생성하는 동작; 및
    상기 적어도 하나의 공통 이미지를 상기 제 1좌측 이미지 및 상기 제 1우측 이미지와 각각 합성하여 제 2좌측 이미지 및 제 2우측 이미지를 생성하는 동작을 포함하는 것을 특징으로 하는 방법.
  2. 제 1항에 있어서,
    상기 오브젝트를 분류하는 동작은,
    오브젝트가 표시되는 전체 영역을, 상기 제1기준면보다 사용자 시선을 기준으로 더 가까운 곳에 위치하는 포그라운드 영역, 상기 제2기준면보다 사용자 시선을 기준으로 더 먼 곳에 위치하는 백그라운드 영역 및 좌우 분리 영역으로 분류하는 동작을 포함하고,
    상기 이미지를 생성하는 동작은,
    상기 좌우 분리 영역에 존재하는 오브젝트는 제 1좌측 이미지 및 제 1우측 이미지로 생성하고, 상기 백그라운드 영역과 포그라운드 영역에 존재하는 오브젝트는 각각 공통 이미지로 생성하는 동작을 포함하는 것을 특징으로 하는 방법.
  3. 제 1항에 있어서,
    상기 결정된 적어도 하나의 제1기준면 또는 제2기준면은
    상기 렌더링에 사용되는 양측 관점의 중앙에서 정면으로 뻗은 중심선과 일측 관점에서 특정 각도로 상기 중심선을 바라보는 시선의 교점이 포함되는 일 면인 것을 특징으로 하는 방법.
  4. 제 3항에 있어서,
    상기 특정 각도는 고정된 기 설정 값이거나, 사용자의 설정에 의해 변경 가능한 값인 것을 특징으로 하는 방법.
  5. 제 1항에 있어서,
    상기 공통 이미지를 생성하는 동작은,
    하나의 오브젝트가 상기 결정된 적어도 하나의 제1기준면 또는 제2기준면에 의하여 나누어진 양 영역 모두에 위치하는 경우, 상기 양 영역 모두에 위치하는 오브젝트를 하나의 오브젝트로 처리하는 동작 또는 상기 제1기준면 또는 제2기준면을 기준으로 상기 양 영역 모두에 위치하는 오브젝트를 분리하여 처리하는 동작 중 어느 하나인 것을 특징으로 하는 방법.
  6. 제 5항에 있어서,
    상기 공통 이미지를 생성하는 동작은,
    상기 양 영역 모두에 위치하는 오브젝트를 하나의 오브젝트로 처리할 경우, 상기 양 영역 모두에 위치하는 오브젝트로 제 1좌측 이미지와 제 1우측 이미지를 생성하는 동작 또는 상기 양 영역 모두에 위치하는 오브젝트로 공통 이미지를 생성하는 동작 중 어느 하나를 포함하는 것을 특징으로 하는 방법.
  7. 제 1항에 있어서,
    상기 합성하는 동작은,
    상기 합성된 이미지간의 어긋남이 발생된 경우, 합성된 각각의 공통 이미지에 오프셋 값을 적용하여 오류를 해소하는 동작을 더 포함하는 것을 특징으로 하는 방법.
  8. 제 7항에 있어서,
    상기 오프셋 값은
    렌더링에 사용되는 양측 관점의 중앙과 일측 관점 사이의 거리에 대응하는 값으로 설정되는 것을 특징으로 하는 방법.
  9. 제 7항에 있어서,
    상기 오류를 해소하는 동작은
    상기 제 1좌측 이미지에 합성된 공통 이미지는 오프셋 값만큼 우측 이동시키고, 상기 제 1 우측 이미지에 합성된 공통 이미지는 오프셋 값만큼 좌측 이동시키는 동작임을 특징으로 하는 방법.
  10. 제 1항에 있어서,
    상기 제 1좌측이미지와 적어도 하나의 공통 이미지가 합성된 제 2좌측 이미지와 상기 제 1우측 이미지와 상기 적어도 하나의 공통 이미지가 합성된 제 2 우측 이미지를 표시하는 동작을 더 포함하는 것을 특징으로 하는 방법.
  11. 컨텐츠를 렌더링하는 전자 장치에 있어서,
    디스플레이;
    3차원 컨텐츠 및 구동 프로그램을 저장하는 메모리;및
    프로세서를 포함하고,
    상기 프로세서는,
    3차원 컨텐츠 표시 요청에 응답하여, 상기 3차원 컨텐츠에 설정된 제1기준면 및 상기 제1기준면보다 사용자 시선을 기준으로 상대적으로 먼 곳에 위치하는 제2기준면 중 적어도 하나를 결정하고,
    상기 3차원 컨텐츠에 대응되는 오브젝트를, 상기 결정된 적어도 하나의 제1기준면 또는 제2기준면에 대한 상대적 위치에 기초하여 제 1좌측 이미지 및 제 1우측 이미지 중 적어도 하나에 해당하는 오브젝트와 적어도 하나의 공통 이미지에 해당하는 오브젝트로 분류하고, 상기 제1기준면보다 사용자 시선을 기준으로 더 가까운 곳에 위치하는 하나 이상의 오브젝트 또는 상기 제2기준면보다 사용자 시선을 기준으로 더 먼 곳에 위치하는 하나 이상의 오브젝트를 상기 적어도 하나의 공통 이미지에 해당하는 오브젝트로 분류하고,
    상기 분류된 오브젝트를 이용하여 제 1좌측 이미지 및 제 1우측 이미지 및 적어도 하나의 공통 이미지를 구분 생성하고,
    상기 적어도 하나의 공통 이미지를 상기 제 1좌측 이미지와 제 1우측 이미지에 각각 합성하여 제 2좌측 이미지 및 제 2우측 이미지를 생성하고,
    상기 디스플레이로 상기 제 2좌측 이미지와 상기 제 2우측 이미지를 표시하도록 설정된 전자장치.
  12. 제 11항에 있어서,
    상기 프로세서는
    상기 결정된 적어도 하나의 제1기준면 또는 제2기준면에 기반하여 오브젝트가 표시되는 전체 영역을, 상기 제1기준면보다 사용자 시선을 기준으로 더 가까운 곳에 위치하는 포그라운드 영역, 상기 제2기준면보다 사용자 시선을 기준으로 더 먼 곳에 위치하는 백그라운드 영역 및 좌우 분리 영역으로 분류하고, 상기 좌우 분리 영역에 존재하는 오브젝트는 제 1좌측 이미지 및 제 1우측 이미지로 생성하고, 상기 백그라운드 영역과 포그라운드 영역에 존재하는 오브젝트는 각각 공통 이미지로 생성하는 것을 특징으로 하는 전자장치.
  13. 제 11항에 있어서,
    상기 프로세서는
    상기 렌더링에 사용되는 양측 관점의 중앙에서 정면으로 뻗은 중심선과 일측 관점에서 특정 각도로 상기 중심선을 바라보는 시선의 교점이 포함되는 일면을 상기 결정된 적어도 하나의 제1기준면 또는 제2기준면으로 설정하는 것을 특징으로 하는 전자장치.
  14. 제 13항에 있어서,
    상기 프로세서는
    상기 특정 각도를 고정된 기 설정 값 또는 사용자의 설정에 의해 변경 가능한 값으로 적용하는 것을 특징으로 하는 전자장치.
  15. 제 11항에 있어서,
    상기 프로세서는
    하나의 오브젝트가 상기 결정된 적어도 하나의 제1기준면 또는 제2기준면에 의하여 나누어진 양 영역 모두에 위치하는 경우, 상기 양 영역 모두에 위치하는 오브젝트를 하나의 오브젝트로 처리하는 것 또는 상기 결정된 적어도 하나의 제1기준면 또는 제2기준면을 기준으로 상기 양 영역 모두에 위치하는 오브젝트를 분리하여 처리하는 것을 특징으로 하는 전자장치.
  16. 제 15항에 있어서,
    상기 프로세서는
    상기 양 영역 모두에 위치하는 오브젝트를 하나의 오브젝트로 처리할 경우, 상기 양 영역 모두에 위치하는 오브젝트로 제 1좌측 이미지와 제 1우측 이미지를 생성하는 것 또는 상기 양 영역 모두에 위치하는 오브젝트로 공통 이미지를 생성하는 것을 특징으로 하는 전자장치.
  17. 제 11항에 있어서,
    상기 프로세서는
    상기 합성된 이미지간의 어긋남이 발생된 경우, 합성된 각각의 공통 이미지에 오프셋 값을 적용하여 오류를 해소하는 것을 특징으로 하는 전자장치.
  18. 제 17항에 있어서,
    상기 프로세서는
    상기 오프셋 값을 렌더링에 사용되는 양측 관점의 중앙과 일측 관점 사이의 거리에 대응하는 값으로 설정하는 것을 특징으로 하는 전자장치.
  19. 제 17항에 있어서,
    상기 프로세서는
    상기 오류를 해소하기 위해 상기 제 1좌측이미지에 합성된 공통 이미지를 오프셋 값만큼 우측 이동시키고, 상기 제 1우측이미지에 합성된 공통 이미지는 오프셋 값만큼 좌측 이동시키는 것을 특징으로 하는 전자장치.
  20. 제11항에 있어서,
    상기 프로세서는,
    상기 제1기준면 및 제2기준면을 결정하는 경우, 상기 오브젝트의 위치가 상기 제1기준면 및 제2기준면 사이에 위치하는지 여부를 기준으로 상기 오브젝트를 분류하는 것을 특징으로 하는 전자장치.
        
KR1020140137596A 2014-10-13 2014-10-13 컨텐츠를 렌더링하는 방법 및 장치 KR102219456B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020140137596A KR102219456B1 (ko) 2014-10-13 2014-10-13 컨텐츠를 렌더링하는 방법 및 장치
US14/882,048 US9805291B2 (en) 2014-10-13 2015-10-13 Method and apparatus for stereoscopically rendering three-dimensional content by including a left image and a right image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140137596A KR102219456B1 (ko) 2014-10-13 2014-10-13 컨텐츠를 렌더링하는 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20160043349A KR20160043349A (ko) 2016-04-21
KR102219456B1 true KR102219456B1 (ko) 2021-02-25

Family

ID=55656353

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140137596A KR102219456B1 (ko) 2014-10-13 2014-10-13 컨텐츠를 렌더링하는 방법 및 장치

Country Status (2)

Country Link
US (1) US9805291B2 (ko)
KR (1) KR102219456B1 (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10477827B2 (en) 2016-08-17 2019-11-19 Technologies Holdings Corp. Vision system for teat detection
US9807971B1 (en) 2016-08-17 2017-11-07 Technologies Holdings Corp. Vision system with automatic teat detection
US9980457B2 (en) * 2016-08-17 2018-05-29 Technologies Holdings Corp. Vision system with teat candidate identification
TWI653170B (zh) * 2017-11-01 2019-03-11 宏碁股份有限公司 駕駛提示方法與系統
CN107835404A (zh) * 2017-11-13 2018-03-23 歌尔科技有限公司 基于头戴式虚拟现实设备的图像显示方法、设备及系统
CN109823344B (zh) * 2017-11-22 2021-10-22 宏碁股份有限公司 驾驶提示方法与系统
CN110288035B (zh) * 2019-06-28 2021-05-07 海南树印网络科技有限公司 一种智能垃圾桶在线自主学习方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110074925A1 (en) * 2009-09-30 2011-03-31 Disney Enterprises, Inc. Method and system for utilizing pre-existing image layers of a two-dimensional image to create a stereoscopic image
US20120176371A1 (en) * 2009-08-31 2012-07-12 Takafumi Morifuji Stereoscopic image display system, disparity conversion device, disparity conversion method, and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100682456B1 (ko) 2006-02-08 2007-02-15 삼성전자주식회사 렌더링 영역을 최소화하는 3d 그래픽스 데이터의 렌더링방법 및 시스템
EP2160037A3 (en) * 2006-06-23 2010-11-17 Imax Corporation Methods and systems for converting 2D motion pictures for stereoscopic 3D exhibition
KR101547151B1 (ko) * 2008-12-26 2015-08-25 삼성전자주식회사 영상 처리 방법 및 장치
US8643701B2 (en) * 2009-11-18 2014-02-04 University Of Illinois At Urbana-Champaign System for executing 3D propagation for depth image-based rendering
US20130009949A1 (en) * 2011-07-05 2013-01-10 Texas Instruments Incorporated Method, system and computer program product for re-convergence of a stereoscopic image

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120176371A1 (en) * 2009-08-31 2012-07-12 Takafumi Morifuji Stereoscopic image display system, disparity conversion device, disparity conversion method, and program
US20110074925A1 (en) * 2009-09-30 2011-03-31 Disney Enterprises, Inc. Method and system for utilizing pre-existing image layers of a two-dimensional image to create a stereoscopic image

Also Published As

Publication number Publication date
US9805291B2 (en) 2017-10-31
US20160105669A1 (en) 2016-04-14
KR20160043349A (ko) 2016-04-21

Similar Documents

Publication Publication Date Title
KR102219456B1 (ko) 컨텐츠를 렌더링하는 방법 및 장치
KR102219464B1 (ko) 보안 운용 방법 및 이를 지원하는 전자 장치
US10114514B2 (en) Electronic device, method for controlling the electronic device, and recording medium
KR102219861B1 (ko) 화면 공유 방법 및 그 전자 장치
US20160086386A1 (en) Method and apparatus for screen capture
KR20150136440A (ko) 디스플레이 제어 방법 및 이를 제공하는 전자 장치
CN104869305B (zh) 处理图像数据的方法及其装置
KR20160011915A (ko) 화면 제어 방법 및 이를 사용하는 전자 장치
KR102262086B1 (ko) 이미지 처리 방법 및 장치
KR20160020189A (ko) 이미지 처리 방법 및 그 장치
US9804762B2 (en) Method of displaying for user interface effect and electronic device thereof
KR20150127989A (ko) 사용자 인터페이스 제공 방법 및 장치
KR20160061133A (ko) 이미지 표시 방법 및 그 전자 장치
KR102140290B1 (ko) 입력 처리 방법 및 그 전자 장치
KR102266882B1 (ko) 전자장치의 화면 표시 방법
KR20150135837A (ko) 디스플레이 운용 전자장치 및 방법
KR20150142282A (ko) 기능 제어 방법 및 그 전자 장치
KR20150100394A (ko) 이미지 표시 방법 및 장치
EP2947556A1 (en) Method and apparatus for processing input using display
EP2891971A1 (en) Electronic device and method for operating the electronic device
KR20160001076A (ko) 데이터 관리 방법 및 그 방법을 처리하는 전자 장치
EP3092613B1 (en) Image processing method and electronic device implementing the same
KR20150135895A (ko) 이미지 처리 방법 및 그 전자 장치
KR102194787B1 (ko) 사용자 기반 센서 정보 획득 방법 및 그 전자 장치
KR20150086150A (ko) 사용자 인터페이스 제어 방법 및 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right