KR101337558B1 - 고해상도 영상 또는 입체 영상의 허브기능을 구비한 모바일단말기 및 그 모바일단말기를 이용하여 고해상도 영상 또는 입체 영상 제공 방법 - Google Patents

고해상도 영상 또는 입체 영상의 허브기능을 구비한 모바일단말기 및 그 모바일단말기를 이용하여 고해상도 영상 또는 입체 영상 제공 방법 Download PDF

Info

Publication number
KR101337558B1
KR101337558B1 KR1020120050965A KR20120050965A KR101337558B1 KR 101337558 B1 KR101337558 B1 KR 101337558B1 KR 1020120050965 A KR1020120050965 A KR 1020120050965A KR 20120050965 A KR20120050965 A KR 20120050965A KR 101337558 B1 KR101337558 B1 KR 101337558B1
Authority
KR
South Korea
Prior art keywords
image
function
rendering
mobile terminal
frame buffer
Prior art date
Application number
KR1020120050965A
Other languages
English (en)
Other versions
KR20130127212A (ko
Inventor
김성재
신명석
이동철
박범진
Original Assignee
주식회사 넥서스칩스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 넥서스칩스 filed Critical 주식회사 넥서스칩스
Priority to KR1020120050965A priority Critical patent/KR101337558B1/ko
Publication of KR20130127212A publication Critical patent/KR20130127212A/ko
Application granted granted Critical
Publication of KR101337558B1 publication Critical patent/KR101337558B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

고해상도 영상 또는 입체 영상의 허브 기능을 구비한 모바일단말기에 관한 것으로, 모바일단말기는 일 실시예에 따르면 연결된 디스플레이 장치를 검출하고 그 디스플레이 장치의 속성정보를 추출하는 디스플레이검출부와 그 속성정보에 기초하여 고해상도 또는 3D 입체 영상을 생성하는 영상처리부를 포함할 수 있다. 본 실시예에 따르면, 모바일단말기를 고해상도 또는 3D 입체 컨텐츠의 허브로 활용할 수 있다.

Description

고해상도 영상 또는 입체 영상의 허브기능을 구비한 모바일단말기 및 그 모바일단말기를 이용하여 고해상도 영상 또는 입체 영상 제공 방법{MOBILE TERMINAL HAVING HUB FUNCTION FOR HIGH RESOLUTION IMAGES OR STEREOSCOPIC IMAGES, AND METHOD FOR PROVIDING HIGH RESOLUTION IMAGES OR STEREOSCOPIC IMAGES USING THE MOBILE TERMINAL}
고해상도 영상 또는 3D 입체 영상의 허브 기능을 구비한 모바일단말기 및 그 모바일단말기를 이용하여 고해상도 영상 또는 입체 영상 제공 방법에 관한 것이다.
최근 게임단말기, 스마트폰, 태블릿 PC 등의 모바일단말기 기술이 발달하면서 사용자들은 장소에 구애받지 않고 모바일단말기를 활용하여 그래픽 영상을 감상하고 있다. 그러나, 모바일단말기는 휴대의 편의성 때문에 디스플레이가 소형으로 제작되어 화면 사이즈 및 해상도 등에 있어서 사용자들에게 만족감을 주지 못하는 실정이다. 따라서, 사용자들은 모바일단말기를 고해상도의 대형 모니터나 TV 등에 연결하여 고해상도 또는 3D 입체 컨텐츠를 감상하고 싶어한다.
종래에는 모바일단말기에서 재생되는 영상을 TV나 모니터 등의 대형 디스플레이 장치에 출력할 때 단순히 확대하여 그대로 출력하는 방식을 취하고 있어, 저해상도의 모바일단말기에서 고해상도의 디스플레이 장치에 출력되는 영상의 품질이 현저하게 저하되고 입체감이 매우 떨어지는 문제가 있었다. 공개특허 제10-2007-0018818호는 두 개 이상의 장치에서 스크린 공유 시스템에 대해 개시하고 있으나, 이는 단지 어느 하나의 장치에서 출력되는 영상을 다른 장치에 출력하는 것에 불과할 뿐, 모바일단말기가 연결된 디스플레이 장치에 따라 최적의 고해상도 또는 3D 입체 영상을 제공하는 컨텐츠 허브 기능을 구현하는 데에 한계가 있다.
모바일단말기에 연결된 디스플레이 장치의 속성에 따라 최적의 고해상도 컨텐츠 또는 3D 입체 컨텐츠를 제공하는 컨텐츠 허브 기능을 구현하는 모바일단말기 및 방법이 제시된다.
일 양상에 따르면, 고해상도 영상 또는 입체 영상의 허브기능을 구비한 모바일단말기는 유선 또는 무선으로 연결된 디스플레이 장치를 검출하고, 검출된 디스플레이 장치의 속성정보를 추출하는 디스플레이검출부, 추출된 속성정보에 기초하여 디스플레이 장치에 출력될 영상 모드를 결정하는 영상모드결정부 및 렌더링 함수를 포함하는 그래픽 처리 함수를 호출하는 함수호출부 및, 상기 결정된 영상 모드에 따라 상기 렌더링 함수를 통해 3D 그래픽 모델을 렌더링하여 제1프레임 버퍼에 제1영상을 생성하거나, 또는 상기 렌더링 함수를 통해 3D 그래픽 모델을 렌더링하여 제1그래픽 버퍼에 영상을 생성한 후 그 영상을 다시 렌더링하여 제1프레임 버퍼에 제1영상을 생성하는 제1영상생성부를 포함하는 영상처리부 및 제1프레임 버퍼 또는 제1그래픽버퍼에 생성된 제1영상을 디스플레이 장치에 출력하는 영상출력부를 포함할 수 있다.
이때, 속성정보는 해상도 또는 3D 지원 여부를 포함할 수 있다.
또한, 영상 모드는 3D 입체 영상 모드 또는 일반 고해상도 모드를 포함할 수 있다.
추가적인 양상에 따르면, 영상처리부는 결정된 영상 모드가 3D 입체 영상 모드이면 렌더링 함수를 제1 렌더링 함수와 제2 렌더링 함수로 변경하는 함수변경부를 더 포함할 수 있고, 제1영상생성부는 3D 그래픽 모델에 대해 제1 렌더링 함수 및 제2 렌더링 함수를 적용하여 각각 3D 입체의 제1영상을 생성하기 위한 제1시점 영상 및 제2시점 영상을 생성할 수 있다.
추가적인 양상에 따르면, 영상처리부는 제1프레임 버퍼 또는 제1그래픽버퍼에 생성된 영상을 텍스처(Texture)로 입력받아 렌더링 함수를 통해 렌더링하여 제2영상을 제2프레임 버퍼에 생성하는 제2영상생성부를 더 포함할 수 있고, 영상출력부는 제2프레임 버퍼에 생성된 제2영상을 모바일단말기의 표시수단에 출력할 수 있다.
다른 양상에 따르면, 그래픽 처리 함수는 렌더링 타겟(Traget) 버퍼 지정 함수 및 뷰포트(Viewport) 함수를 더 포함할 수 있고, 영상처리부는 렌더링 타겟 버퍼 지정 함수의 타겟 버퍼 설정값과 상기 뷰포트 함수의 뷰포트 영역 설정값을 제1프레임 버퍼 또는 제2프레임 버퍼에 대응되는 값으로 변경하는 함수변경부를 더 포함할 수 있다.
일 양상에 따른, 모바일단말기를 이용하여 고해상도 영상 또는 입체 영상 제공방법은 유선 또는 무선으로 연결된 디스플레이 장치를 검출하는 단계, 검출된 디스플레이 장치의 속성정보를 추출하는 단계, 추출된 속성정보에 기초하여 디스플레이 장치에 출력될 영상 모드를 결정하는 단계, 렌더링 함수를 포함하는 그래픽 처리 함수를 호출하는 단계, 결정된 영상 모드에 따라 상기 렌더링 함수를 통해 3D 그래픽 모델을 렌더링하여 제1프레임 버퍼에 제1영상을 생성하거나, 또는 상기 렌더링 함수를 통해 3D 그래픽 모델을 렌더링하여 제1그래픽 버퍼에 영상을 생성한 후 그 영상을 다시 렌더링하여 제1프레임 버퍼에 제1영상을 생성하는 단계 및 제1프레임 버퍼 또는 제1그래픽버퍼에 생성된 제1영상을 디스플레이 장치에 출력하는 단계를 포함할 수 있다.
이때, 속성정보는 해상도 또는 3D 지원 여부를 포함할 수 있다.
또한, 영상 모드는 3D 입체 영상 모드 또는 일반 고해상도 모드를 포함할 수 있다.
추가적인 양상에 따르면, 제1영상을 생성하는 단계는 결정된 영상 모드가 3D 입체 영상 모드이면 렌더링 함수를 제1 렌더링 함수와 제2 렌더링 함수로 변경하는 단계, 3D 그래픽 모델에 대해 제1 렌더링 함수를 적용하여 3D 입체의 제1영상을 생성하기 위한 제1시점 영상을 생성하는 단계 및 3D 그래픽 모델에 대해 제2 렌더링 함수를 적용하여 3D 입체의 제1영상 을 생성하기 위한 제2시점 영상을 생성하는 단계를 포함할 수 있다.
추가적인 양상에 따르면, 모바일단말기를 이용하여 고해상도 영상 또는 입체 영상 제공방법은 제1프레임 버퍼 또는 제1그래픽버퍼에 생성된 영상을 텍스처(Texture)로 입력받아 렌더링 함수를 통해 렌더링하여 제2영상을 제2프레임 버퍼에 생성하는 단계 및 제2프레임 버퍼에 생성된 제2영상을 모바일단말기의 표시수단에 출력하는 단계를 더 포함할 수 있다.
또한, 제1영상 생성 단계 이전에 렌더링 타겟 버퍼 지정 함수의 타겟 버퍼 설정값과 뷰포트 함수의 뷰포트 영역 설정값을 제1프레임 버퍼에 대응되는 값으로 변경하는 단계를 더 포함할 수 있고, 제2영상 생성 단계 이전에, 렌더링 타겟 버퍼 지정 함수의 타겟 버퍼 설정값과 뷰포트 함수의 뷰포트 영역 설정값을 제2프레임 버퍼에 대응되는 값으로 변경하는 단계를 더 포함할 수 있다.
모바일단말기에 연결된 디스플레이 장치의 해상도 등의 속성에 맞추어 최적의 고해상도 컨텐츠 또는 3D 입체 컨텐츠를 그 디스플레이 장치에 출력함으로써 모바일단말기를 고해상도 또는 3D 입체 컨텐츠의 허브로 활용할 수 있다.
또한, 사용자들은 별도의 컨텐츠 변환 작업을 수행할 필요가 없이 고해상도 디스플레이 장치를 모바일단말기에 연결함으로써 손쉽게 고해상도 또는 3D 입체 영상을 감상할 수 있다.
도 1은 일 실시예에 따른 디스플레이 장치에 컨텐츠 제공 허브 기능을 수행하는 모바일단말기의 예이다.
도 2는 일 실시예에 따른 모바일 단말기의 블록도이다.
도 3은 도 2의 실시예에 따른 모바일단말기 중 영상처리부의 상세 블록도이다.
도 4는 일 실시예에 따른 모바일단말기에서 디스플레이 장치에 고해상도 또는 3D 입체 영상 제공 방법의 흐름도이다.
도 5는 도 4의 실시예 중 영상 생성 단계의 상세 흐름도이다.
도 6은 도 4의 실시예 중 영상 생성 단계의 3D 입체 영상 생성 절차이다.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
이하, 본 발명의 실시예들에 따른 고해상도 영상 또는 입체 영상의 허브기능을 구비한 모바일단말기 및 그 모바일단말기를 이용하여 고해상도 영상 또는 입체 영상 제공 방법을 도면들을 참고하여 자세히 설명하도록 한다.
도 1은 일 실시예에 따른 디스플레이 장치(200)에 컨텐츠 제공 허브 기능을 수행하는 모바일단말기(100)의 예이다.
도 1을 참조하면, 모바일단말기(100)가 유선 또는 무선으로 연결된 외부 디스플레이 장치(200)에 영상을 출력할 수 있다. 모바일단말기(100)는 게임 단말기나 스마트폰, 태블릿 PC, 내비게이션 단말기, PDA 등의 그래픽 컨텐츠를 처리할 수 있는 모든 장치를 포함한다. 모바일단말기(100)는 연결되는 디스플레이 장치(200)의 해상도 또는 3D 입체 영상 지원 여부 등의 속성정보에 따라 일반 고해상도 영상(2D 영상)이나 3D 입체 영상을 생성하고 그 디스플레이 장치에 출력할 수 있다.
또한, 디스플레이 장치(200)는 TV나 컴퓨터 모니터 등의 표시장치로서, 모바일단말기(100) 보다 상대적으로 고해상도를 지원하는 모든 장치를 의미한다. 디스플레이 장치(200)는 3D 입체 영상을 지원하는 고해상도 장치일 수 있다. 이때, 모바일단말기(100) 보다 상대적으로 고해상도라 함은 픽셀 수로 환산할 경우 그 모바일단말기(100)의 해상도 보다 약 2배 정도 이상 차이가 나는 경우를 의미할 수 있다. 예를 들어 저해상도 800×480 (384000) 대비 고해상도 1280×720 (921600)의 픽셀수가 2.4배 많다. 다만, 이는 예시에 불과하고 이에 한정되어 해석될 수 없음은 자명하다.
아래의 [표 1]은 모바일단말기(100)와 디스플레이 장치(200)에 출력될 수 있는 영상의 타입을 예시한 것으로, 고해상도 영상 또는 3D 입체 영상 컨텐츠의 허브 기능을 구비한 모바일단말기(100)는 그 모바일단말기(100)와 디스플레이 장치(200)의 3D 입체 영상 지원 여부에 따라 다양한 조합의 컨텐츠를 생성하고 출력할 수 있다.
모바일단말기(100) 디스플레이 장치(200)
2D 영상 2D 영상
2D 영상 3D 영상
3D 영상 2D 영상
3D 영상 3D 영상
이와 같이, 일 실시예에 따른 모바일단말기(100)는 유/무선으로 연결되는 디스플레이 장치(200)의 속성(예: 해상도, 3D 입체 영상 지원 여부)에 따라 최적의 컨텐츠를 생성하여 그 디스플레이 장치(200)에 제공함으로써 고해상도 또는 3D 입체 영상의 허브 기능을 구현할 수 있다. 예를 들어, 모바일단말기(100)가 WVGA LCD 폰이라고 하더라도 연결된 TV(200)에 WVGA 화질의 게임 화면이 출력되는 것이 아니라 그 TV(200)에 HD 급 화질의 영상을 출력하거나 3D 입체 영상을 출력할 수 있다.
한편, 모바일단말기(100)는 그래픽 처리 성능을 향상시키기 위한 GPU(Graphic Processing Unit)를 탑재할 수 있다. GPU는 일반적으로 단말에 하드웨어 칩 형태로 장착될 수 있는데, 단말의 소프트웨어 플랫폼에서 단말에 부착된 GPU를 사용하기 위해서는 해당 그래픽 가속기용 그래픽 라이브러리를 사용하여야만 실질적인 그래픽 가속기의 그래픽 가속을 활용할 수 있게 된다.
이때, 그래픽 라이브러리라 함은 산업계에서 보편적으로 활용되고 있는 실시간 렌더링 그래픽 개발 API(application programming interface)를 구현한 것으로, 그래픽 라이브러리 내부에서 하드웨어 GPU 드라이버를 통해 GPU를 제어한다. 그래픽 라이브러리는 크게 데이터 설정 함수, 상태 변환 함수, 렌더링 함수로 나누어진다. 데이터 설정 함수는 모델 데이터(3D Vertex 등)을 설정하고, 상태 변환 함수는 렌더링 방식을 설정하는 함수이다. 렌더링 함수는 실질적으로 지오메트리 처리 및 프레임 버퍼에 래스터화(rasterization)를 수행하는 함수이다.
도 2는 일 실시예에 따른 모바일단말기(100)의 블록도이다. 도 2를 참조하면, 고해상도 또는 3D 입체 영상 컨텐츠의 허브 기능을 구비한 모바일단말기(100)는 디스플레이검출부(110), 영상모드결정부(120), 영상처리부(130) 및 영상출력부(140)를 포함할 수 있다.
디스플레이검출부(110)는 유선 또는 무선으로 연결된 디스플레이 장치(200)를 검출할 수 있다. 디스플레이검출부(110)는 외부 출력단자를 통해 유선으로 연결되는 경우 운영체제에서 발생되는 이벤트를 감지함으로써 디스플레이 장치(200)의 연결을 검출하거나, 운영체제에 연결된 디스플레이 장치(200)를 질의하여 검출할 수 있다.
디스플레이검출부(110)는 디스플레이 장치(200)의 연결이 검출되면, 그 연결된 디스플레이 장치(200)의 속성정보를 추출할 수 있다. 이때, 속성정보는 연결된 디스플레이 장치(200)의 해상도 또는 3D 입체 영상 지원 여부를 포함할 수 있다. 한편, 디스플레이검출부(110)는 모바일단말기(100)의 속성정보를 더 추출할 수 있다.
영상모드결정부(120)는 추출된 속성정보에 기초하여 디스플레이 장치(200)에 출력될 영상의 모드를 결정할 수 있다. 이때, 영상의 모드는 3D 입체 영상 모드 또는 일반 고해상도 모드를 포함할 수 있다. 또한, 영상모드결정부(120)는 모바일단말기(100)의 속성정보를 이용하여 모바일단말기(100)의 표시수단에 출력될 영상의 모드를 결정할 수 있다.
영상처리부(130)는 결정된 영상의 모드에 따라 디스플레이 장치(200)에 출력될 영상을 생성할 수 있다. 영상처리부(130)는 영상 모드가 3D 입체 영상 모드이면 3D 입체 영상을 생성하고, 일반 고해상도 모드이면 2D 고해상도 영상을 생성할 수 있다. 영상처리부(130)는 모바일단말기(100)에 탑재된 GPU를 사용하여 3D 그래픽 모델(150)에 대해 렌더링 작업을 수행하여 디스플레이 장치(200)에 출력될 상대적으로 고해상도 일반 영상 또는 3D 입체 영상을 생성하고, 모바일단말기(100)의 표시수단에 출력될 상대적으로 저해상도 영상 또는 3D 입체 영상을 생성할 수 있다.
3D 그래픽 모델(150)이란 3차원 물체에 대한 정보로서, 지오메트리(geometry), 시점, 텍스처 매핑(texture mapping), 조명, 셰이딩(shading) 정보 등을 포함할 수 있다. 3D 그래픽 모델(150)은 그래픽 애플리케이션에서 제공되어 특정 저장매체에 저장되어 있는 정보일 수 있다. 3D 그래픽 모델(150)은 그래픽 영상을 생성하기 위한 데이터를 포함할 수 있다. 그래픽 영상이란 실시간 렌더링(Realtime Rendering) 기술을 이용하여 실시간으로 생성되는 영상을 의미하며, 단일 시점 및 입체를 위한 다시점 영상을 모두 포함할 수 있다.
실시간 렌더링은 컴퓨터 프로그램을 이용하여 3D 그래픽 모델(150)로부터 래스터 그래픽스 이미지라 불리는 영상을 실시간으로 만드는 과정을 의미한다. 실시간 렌더링은 아키텍처, 비디오 게임, 시뮬레이터, 특수 효과, 디자인 시각화 등 다양한 분야에 사용된다. 실시간 렌더링은 많은 연산이 필요로 하기 때문에 렌더링 속도 향상을 위하여 그래픽 가속기(GPU)를 사용할 수 있다.
영상출력부(140)는 영상처리부(130)에 의해 생성된 영상을 디스플레이 장치(200) 또는 모바일단말기(100)에 출력할 수 있다.
도 3은 도 2의 실시예에 따른 모바일단말기(100) 중 영상처리부(130)의 상세 블록도이다. 도 3을 참조하면, 영상처리부(130)는 함수호출부(131), 함수변경부(133), 제1영상생성부(134) 및 제2영상생성부(135)를 포함할 수 있다.
함수호출부(131)는 그래픽 라이브러리에서 3D 그래픽 모델(150)의 렌더링을 위한 렌더링 함수, 렌더링 타겟 버퍼 지정 함수, 뷰포트 함수를 포함하는 그래픽 처리 함수를 호출할 수 있다. 한편, 함수호출부(131)는 3D 그래픽 모델(150) 정보를 수신하고 3D 그래픽 모델(150)의 렌더링 방식을 설정하는 렌더링 인터페이스일 수 있다. 함수호출부(131)는 호출되는 그래픽 처리 함수를 함수변경부(133) 또는, 제1영상생성부(134) 및 제2영상생성부(135)로 전달할 수 있다.
추가적인 양상에 따르면, 영상처리부(130)는 데이터저장부(132)를 더 포함할 수 있다. 함수호출부(131)는 호출된 그래픽 처리 함수를 데이터저장부(132)에 저장하고, 제1영상생성부(134)가 3D 입체영상을 생성하는 경우 제2시점 영상 생성 전 또는 제2영상생성부(135)에서 제2영상을 생성하기 전에 데이터저장부(132)에 저장된 그래픽 처리 함수를 호출할 수 있다.
한편, 디스플레이검출부(110)는 연결된 디스플레이 장치(200)의 속성정보가 추출되면 그 속성정보를 이용하여 디스플레이 장치(200)에 적합한 제1프레임 버퍼(134c)를 메모리영역에 할당하고, 또한, 모바일단말기(100)의 속성정보를 이용하여 그 모바일단말기(100)의 표시수단에 적합한 제2프레임 버퍼(135c)를 메모리영역에 할당할 수 있다. 즉, 제1프레임 버퍼(134c)는 연결된 디스플레이 장치(200)에 출력될 제1영상을 저장하기 위한 공간이며, 제2프레임 버퍼(135c)는 모바일단말기(100)의 표시수단에 출력될 제2영상을 저장하기 위한 공간으로, 각 장치의 해상도에 따라 적절한 크기의 프레임 버퍼가 할당될 수 있다.
함수변경부(133)는 제1영상생성부(134)가 제1영상을 생성하기 전에 호출된 그래픽 처리 함수 중 렌더링 타겟 버퍼 지정 함수의 타겟 버퍼 설정값과 뷰포트 함수의 뷰포트 영역 설정값을 제1프레임 버퍼(134c)에 대응되도록 설정할 수 있다. 또한, 제2영상생성부(134)가 제2영상을 생성하기 전에 렌더링 타겟 버퍼 지정 함수의 타겟 버퍼 설정값과 뷰포트 함수의 뷰포트 영역 설정값을 제2프레임 버퍼(134c)에 대응되도록 설정할 수 있다.
제1영상생성부(134)는 결정된 영상 모드에 따라 렌더링 함수를 통해 3D 그래픽 모델을 렌더링하여 연결된 디스플레이 장치(200)에 출력될 제1영상을 제1프레임 버퍼(134c)에 생성할 수 있다.
제2영상생성부(135)는 제1프레임 버퍼(134c)에 생성된 제1영상을 텍스처로 입력받아 렌더링 함수를 통해 모바일단말기(100)의 표시수단에 출력될 제2영상을 제2프레임 버퍼(135c)에 생성할 수 있다.
추가적 실시예에 따르면, 도 3에 도시된 바와 같이 모바일단말기(100)는 전체적인 그래픽 처리의 효율을 위해 제1그래픽버퍼(134d) 또는 제2그래픽버퍼(135d)를 더 포함할 수 있다.
제1영상생성부(134)는 3D 그래픽 모델을 렌더링하여 먼저 제1그래픽 버퍼(134d)에 영상을 생성하고, 그 영상을 다시 렌더링하여 고해상도 또는 3D 입체의 제1영상을 제1프레임 버퍼(135c)에 생성할 수 있다.
제2영상생성부(135)는 제1프레임 버퍼(134c)에 생성된 제1영상 뿐만 아니라 제1그래픽 버퍼(134d)에 생성된 영상을 텍스처로 입력받을 수 있으며, 입력된 영상을 이용하여 렌더링 함수를 통해 모바일단말기(100)의 표시수단에 출력될 제2영상을 제2프레임 버퍼(135c)에 생성할 수 있다. 이때, 추가적인 양상에 따르면, 제2영상생성부(135)는 텍스처로 입력된 영상을 렌더링하여 제2그래픽 버퍼(135d)에 영상을 생성하고, 그 영상을 다시 렌더링하여 고해상도 또는 3D 입체의 제2영상을 제2프레임 버퍼(135c)에 생성할 수 있다.
좀 더 구체적으로, 제1영상 생성부(134)는 지오메트리처리부(134a)와 래스터처리부(134b)를 포함할 수 있다.
지오메트리처리부(134a)는 3D 그래픽 모델(150)에 대한 지오메트리 변환(geometry transformation)을 수행한다. 지오메트리 변환은 어파인 변환(affine transformation)을 이용하여 3D 그래픽 모델(150)을 변형하는 과정이다. 어파인 변환은 도형의 이동, 확대/축소 및 회전 변환을 포함한다. 지오메트리 변환은 3D 그래픽 모델에 대한 모델뷰 변환(model-view transformation), 조명 산출(lighting calculation), 투영 변환(projection transformation), 클립 테스트(clip test), 뷰포트 변환(view port transformation) 등을 포함한다.
한편, 추가적인 양상에 따르면, 지오메트리 변환은 상술한 바와 같은 고정된 지오메트리 변환 방식뿐만이 아니라, 그 변환 방식을 코드로 작성하여 지오메트리 변환 연산을 수정 가능하도록 하는 그래픽 프로그래머블 프로세서(Shader)를 포함할 수 있다. 셰이더는 컴퓨터 그래픽스 분야에서 소프트웨어 명령의 집합으로 주로 그래픽 하드웨어의 렌더링 효과를 계산하는데 사용된다. 즉, 셰이더는 그래픽 처리 장치(GPU)의 프로그래밍이 가능한 렌더링 파이프라인을 프로그래밍하는데 사용된다.
래스터처리부(134b)는 지오메트리 변환에 의해 벡터 그래픽스로 변환된 3D 그래픽 모델(150)에 대해 래스터화(rasterization)를 수행하여 제1영상을 제1프레임 버퍼(134c)에 생성할 수 있다.
래스터화는 벡터 그래픽스를 픽셀 패턴 이미지로 변환하는 과정이다. 즉, 래스터 처리부(134b)는 실태가 없었던 3D 그래픽 모델의 폴리곤(polygon)을 화면상의 픽셀에 대응시켜 붙여주는 과정을 수행한다. 이때, 래스터 처리부(134b)는 상대적으로 고해상도인 디스플레이 장치(200)에 맞는 고화질의 영상이 출력될 수 있도록 복잡한 폴리곤 모델을 이용할 수 있다.
제2영상생성부(135)는 제1프레임 버퍼(134c) 또는 제1그래픽버퍼(134d)에 생성된 영상을 텍스처(Texture)로 입력받아 렌더링하여 제1영상 보다 상대적으로 저해상도인 제2영상을 제2프레임 버퍼(135c)에 생성할 수 있다.
제2영상생성부(135)는 텍스처로 입력받은 영상을 단순 폴리곤에 렌더링을 수행함으로써 연결된 디스플레이 장치(200) 보다 상대적으로 저해상도인 모바일단말기(100)에 출력될 제2영상을 생성할 수 있다. 저해상도의 영상을 생성하므로 복잡한 폴리곤에 대해 렌더링을 수행할 필요가 없고, 하나 또는 두 개의 폴리곤에 입력받은 고해상도 텍스처를 매핑하여 쉽고 빠르게 저해상도 영상을 생성할 수 있다. 다만, 단순 폴리곤은 반드시 하나 또는 두개로 한정되는 것이 아니고 모바일단말기(100)가 지원하는 해상도에 따라 달라질 수 있다.
한편, 모바일단말기(100)의 GPU나 프로세서(Processor)에서 메모리 축소/확대 전송을 지원하는 경우 그 기능을 이용하여 고해상도인 제1프레임 버퍼(134c)의 내용을 저해상도인 제2프레임 버퍼에(135c)에 전송할 수도 있다.
제2영상생성부(135)는 제1영상생성부(134)와 마찬가지로 지오메트리 처리부(135a)와 래스터처리부(135b)를 포함할 수 있다. 제2영상생성부(135)의 지오메트리처리부(135a)는 텍스처로 입력된 영상에 대해 지오메트리 변환을 수행한다. 래스터처리부(135b)는 지오메트리 변환된 영상의 텍스처를 단순한 폴리곤에 매핑하여 래스터화를 수행하여 제2프레임 버퍼(135c)에 제2영상을 생성한다. 한편, 다른 양상에 따르면, 래스터화를 수행하여 먼저 제2그래픽버퍼(135d)에 영상을 생성하고, 그 영상을 다시 지오메트리 변환 및 래스터화를 수행하여 제2프레임버퍼(135c)에 제2영상을 생성할 수 있다.
한편, 추가적인 양상에 따르면, 함수변경부(133)는 결정된 영상모드가 3D 입체 영상 모드인 경우, 렌더링 함수를 제1 렌더링 함수와 제2 렌더링 함수로 변경할 수 있다. 제1 렌더링 함수는 3D 그래픽 모델(150)에 대한 제1시점 영상을 생성하기 위하여 모델뷰 행렬 값, 투영 행렬 값 및 뷰포트 값을 변경하여 렌더링을 수행하는 함수이고, 제2 렌더링 함수는 3D 그래픽 모델(150)에 대한 제2시점 영상을 생성하기 위하여 모델뷰 행렬 값, 투영 행렬 값 및 뷰포트 값을 변경하여 렌더링을 수행하는 함수를 의미한다. 한편, 그래픽 프로그래머블 프로세서(Shder)를 이용하여 지오메트리 변환 방식을 별도로 지정하는 경우 그 지오메트리 변환 방식에 대한 코드를 변경함으로써 제1 렌더링 함수와 제2 렌더링 함수를 생성할 수 있다.
모델뷰 행렬(Model-View Matrix)은 3D 그래픽 모델의 시점을 변경하는 행렬값이고, 투영 행렬(Projection Matrix)은 3D 그래픽 모델을 가상의 공간에 맵핑시키는 행렬 값이며, 뷰포트(Viewport)는 3D 그래픽 모델을 스크린상의 좌표계로 변환하는 값이다. 뷰포트의 의미에는 클립 영역(Clip Area)을 포함할 수 있다.
함수변경부(133)는 렌더링 함수들에 대해 좌안 시점 및 우안 시점에 해당하는 모델뷰 행렬값, 투영 행렬값, 뷰포트 값을 변경하여 지오메트리처리부(143a)에 전달한다. 함수변경부(133)는 두 번에 걸쳐 좌안 및 우안에 대해 변경된 모델뷰 행렬값, 투영 행렬값, 뷰포트 값을 지오메트리처리부(134a)에 전달할 수 있다.
제1영상생성부(134)는 3D 그래픽 모델(150)에 대해 제1 렌더링 함수 및 제2 렌더링 함수를 적용하여 제1프레임 버퍼(134c)에 제1시점 및 제2시점의 3D 입체의 제1영상을 생성할 수 있다. 제1시점 영상은 좌안 영상 및 우안 영상 중 어느 하나이고, 제2시점 영상은 다른 하나를 의미한다. 제1시점 영상 및 제2시점 영상의 조합으로 입체 영상이 표시된다.
추가적인 실시예에 따라, 제1영상생성부(134)는 3D 그래픽 모델(150)에 대해 제1 렌더링 함수 및 제2 렌더링 함수를 적용하여 제1그래픽버퍼(134d)에 제1시점 및 제2시점의 3D 입체 영상을 생성하고, 그 영상을 다시 렌더링하여 제1프레임버퍼(134c)에 연결된 디스플레이 장치(200)에 출력될 고해상도의 3D 입체의 제1영상을 생성할 수 있다.
이때, 모바일단말기(100)는 제1시점 및 제2시점 영상의 효율적 생성을 위해 별도의 두 개의 그래픽 버퍼(미도시)를 더 포함할 수 있으며, 제1시점과 제2시점 영상은 두 개의 그래픽 버퍼(미도시) 각각에 분리되어 생성될 수 있다. 즉, 제1시점과 제2시점 영상의 영역 구분을 위해 뷰포트를 변경하는 대신, 두 개의 그래픽 버퍼(미도시)를 이용하여 좌안 및 우안 영상을 생성하고, 이 두 개 그래픽 버퍼(미도시)에 생성된 좌안 및 우안 영상을 제1프레임버퍼(134c)에 렌더링하여 좌안 및 우안이 합쳐진 3D 입체의 제1영상을 생성할 수 있다.
추가적인 실시예에 따라, 이 두 개 그래픽 버퍼(미도시)에 생성된 좌안 및 우안 영상을 제1그래픽버퍼(134d)에 렌더링하여 좌안 및 우안이 합쳐진 3D 입체 영상을 생성하고, 제1그래픽버퍼(134d)에 생성된 좌안 및 우안의 3D 입체 영상을 다시 제1프레임버퍼(134c)에 렌더링하여 고해상도 3D 입체의 제1영상을 생성할 수도 있다.
추가적으로, 모바일단말기(100)의 영상모드가 3D인 경우 제2영상생성부(135) 는 텍스처로 입력받은 영상에 대해 지오메트리 변환 및 래스터화를 수행하여 제2영상의 제1시점 영상 및/또는 제2시점 영상을 생성할 수 있다.
영상출력부(140)는 제1프레임 버퍼(134c)에 생성된 제1영상을 디스플레이 장치(200)에 출력하고, 제2프레임 버퍼(135c)에 생성된 제2영상을 모바일단말기(100)의 표시수단에 출력할 수 있다.
도 4는 일 실시예에 따른 모바일단말기(100)에서 디스플레이 장치(200)에 고해상도 또는 3D 입체 영상 제공 방법의 흐름도이다. 도 4를 참조하여, 도 3의 실시예에 따른 모바일단말기(100)가 디스플레이 장치(200)에 고해상도 또는 3D 입체 영상 제공 방법을 설명한다.
먼저, 모바일단말기(100)는 유선 또는 무선으로 연결된 디스플레이 장치(200)를 검출하고(단계 310), 검출된 디스플레이 장치(200)의 속성정보를 추출한다(단계 320). 이때, 속성정보는 디스플레이 장치(200)의 해상도 또는 3D 입체 영상 지원 여부를 포함할 수 있다.
추가적으로, 연결된 디스플레이 장치(200)의 속성정보가 추출되면 그 속성정보를 이용하여 적합한 크기의 제1프레임 버퍼(134c)를 메모리영역에 할당할 수 있으며, 또한, 모바일단말기(100)의 표시수단에 적합한 크기의 제2프레임 버퍼(135c)를 메모리영역에 할당할 수 있다. 즉, 제1프레임 버퍼(134c)는 연결된 디스플레이 장치(200)에 출력될 제1영상을 저장하기 위한 공간이며, 제2프레임 버퍼(135c)는 모바일단말기(100)의 표시수단에 출력될 제2영상을 저장하기 위한 공간으로, 각 장치의 해상도에 따라 적절한 크기의 프레임 버퍼가 할당될 수 있다.
그 다음, 모바일단말기(100)는 추출된 속성정보를 바탕으로 그 디스플레이 장치(200)에 출력될 영상의 모드를 결정한다(단계 330). 영상의 모드는 일반 고해상도 모드 또는 3D 입체 영상 모드를 포함할 수 있다. 디스플레이 장치(200)가 3D 입체 영상을 지원하는 경우 3D 입체 영상 모드로 결정되고, 3D 입체 영상을 지원하지 않는 경우 일반 고해상도 모드로 결정될 수 있다.
그 다음, 그 결정된 영상의 모드에 기초하여 3D 그래픽 모델(150)을 렌더링하여 디스플레이 장치(200)에 출력될 제1영상을 제1프레임 버퍼(135c)에 생성할 수 있다(단계 340). 이때, 추가적인 양상에 따르면, 3D 그래픽 모델(150)을 렌더링하여 제1그래픽버퍼(134d)에 영상을 생성하고, 그 영상을 다시 렌더링하여 제1프레임버퍼(134c)에 고해상도 및/또는 3D 입체의 제1영상을 생성할 수 있다. 또한, 모바일단말기(100)는 자신의 표시수단에 출력될 제2영상을 제2프레임 버퍼(135c)에 생성할 수 있다.
마지막으로, 제1프레임버퍼(134c)에 생성된 제1영상을 디스플레이 장치(200)에 출력하고, 제2프레임버퍼(135c)에 생성된 제2영상을 모바일단말기(100)의 표시수단에 출력한다(단계 350).
도 5는 도 4의 실시예 중 영상 생성 단계(340)의 상세 흐름도이다. 도 5를 참조하여 영상 생성 단계(340)를 상세히 설명한다.
먼저, 모바일단말기(100)는 렌더링 함수, 렌더링 타겟 버퍼 지정 함수, 뷰포트 함수를 포함하는 그래픽 처리 함수를 호출한다(단계 341).
그 다음, 렌더링 타겟 버퍼 지정 함수의 타겟 버퍼 설정값과 뷰포트 함수의 뷰포트 영역 설정값을 제1프레임 버퍼(134c)에 대응되는 값으로 변경할 수 있다(단계 342). 즉, 렌더링이 수행될 타겟 버퍼를 제1영상을 생성하기 위한 제1프레임 버퍼(134c) 또는 제1그래픽버퍼(134d)로 설정하고, 그 제1영상이 출력될 디스플레이 장치(200)에 적합한 뷰포트 영역을 설정할 수 있다.
그 다음, 3D 그래픽 모델(150)에 지오메트리 변환을 수행하고(단계 343), 지오메트리 변환된 3D 그래픽 모델(150)을 복잡한 폴리곤에 래스터화하여(단계 344) 제1프레임 버퍼(134c)에 제1영상을 생성할 수 있다. 또는, 추가적인 양상에 따라, 제1그래픽버퍼(134d)에 영상을 생성한 후 그 영상을 제1프레임버퍼(134c)에 렌더링하여 고해상도 및/또는 3D 입체의 제1영상을 생성할 수 있다(단계 345).
그 다음, 모바일단말기(100)가 자신의 표시수단에 출력할 제2영상을 생성하기 위해 렌더링 타겟 버퍼 지정 함수의 타겟 버퍼 설정값과 뷰포트 함수의 뷰포트 영역 설정값을 제2프레임 버퍼에 대응되는 값으로 변경한다(단계 346).
그 다음, 제1프레임 버퍼(134c) 또는 제1그래픽버퍼(134d)에 생성된 영상을 텍스처로 입력받아 지오메트리 변환을 수행하고(단계 347), 지오메트리 변환된 영상을 단순 폴리곤에 래스터화하여(단계 348) 제2프레임 버퍼(135c)에 제2영상을 생성할 수 있다(단계 349).
도 6은 도 4의 실시예 중 영상 생성 단계에서 3D 입체 영상을 생성하는 절차이다. 도 6을 참조하여 디스플레이 장치(200)에 출력될 3D 입체 영상을 생성하는 절차를 설명한다.
먼저, 디스플레이에 출력될 영상모드가 3D 입체 영상 모드인 경우, 렌더링 함수를 제1 렌더링 함수와 제2 렌더링 함수로 변경할 수 있다(단계 410). 이때, 제1 렌더링 함수는 3D 그래픽 모델(150)에 대한 제1시점 영상을 생성하기 위하여 모델뷰 행렬 값, 투영 행렬 값 및 뷰포트 값을 변경하거나 그래픽 프로그래머블 프로세서용 코드를 변경하여 렌더링을 수행하는 함수이고, 제2 렌더링 함수는 3D 그래픽 모델(150)에 대한 제2시점 영상을 생성하기 위하여 모델뷰 행렬 값, 투영 행렬 값 및 뷰포트 값을 변경하거나 그래픽 프로그래머블 프로세서용 코드를 변경하여 렌더링을 수행하는 함수를 의미한다.
그 다음, 3D 그래픽 모델에 대해 제1 렌더링 함수를 적용하여 제1 지오메트리 변환을 수행하고(단계 420), 제1 지오메트리 변환된 3D 그래픽 모델에 대해 래스터화를 수행하여(단계 430) 1프레임 버퍼(134c) 또는 제1그래픽버퍼(134d)에 제1시점 영상을 생성할 수 있다(단계 440).
그 다음, 3D 그래픽 모델에 대해 제2 렌더링 함수를 적용하여 제2 지오메트리 변환을 수행하고(단계 450), 제2 지오메트리 변환된 3D 그래픽 모델에 대해 래스터화를 수행하여(단계 460) 제2시점 영상을 제1프레임 버퍼(134c) 또는 제1그래픽버퍼(134d)에 생성할 수 있다(단계 470).
다른 실시예에 따르면, 제1시점 영상과 제2시점 영상의 영역 구분을 위해 뷰포트를 변경하지 않고 두 개로 구성되는 별도의 그래픽 버퍼(미도시)에 각각 좌안 및 우안 영상을 생성하고, 별도의 그래픽 버퍼(미도시)에 생성된 좌안 및 우안 영상을 합쳐 제1그래픽버퍼(134d)에 좌안 및 우안의 3D 입체 영상을 생성하도록 할 수 있다. 제1그래픽버퍼(134d)에 생성된 좌안 및 우안의 3D 입체 영상을 제1프레임버퍼(134c)에 렌더링하여 3D 입체의 제1영상을 생성할 수 있다.
한편, 모바일단말기(100)가 3D 입체 영상 출력이 가능한 단말기인 경우 그 모바일단말기(100)에 출력될 3D 입체 영상은 도 6을 참조하여 전술한 바에 의해 용이하게 생성할 수 있다.
한편, 본 발명의 실시 예들은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.
컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현하는 것을 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의하여 용이하게 추론될 수 있다.
본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구의 범위에 의하여 나타내어지며, 특허청구의 범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
100: 모바일단말기 110: 디스플레이검출부
120: 영상모드결정부 130: 영상처리부
131: 함수호출부 132: 데이터저장부
133: 함수변경부 134: 제1영상생성부
135: 제2영상생성부 140: 영상출력부
150: 3D 그래픽 모델

Claims (12)

  1. 유선 또는 무선으로 연결된 디스플레이 장치를 검출하고, 검출된 디스플레이 장치의 속성정보를 추출하는 디스플레이검출부;
    상기 추출된 속성정보에 기초하여 디스플레이 장치에 출력될 영상 모드를 결정하는 영상모드결정부;
    렌더링 함수를 포함하는 그래픽 처리 함수를 호출하는 함수호출부 및, 상기 결정된 영상 모드에 따라 상기 렌더링 함수를 통해 3D 그래픽 모델을 렌더링하여 제1프레임 버퍼에 제1영상을 생성하거나, 또는 상기 렌더링 함수를 통해 3D 그래픽 모델을 렌더링하여 제1그래픽 버퍼에 영상을 생성한 후 그 영상을 다시 렌더링하여 제1프레임 버퍼에 제1영상을 생성하는 제1영상생성부를 포함하는 영상처리부; 및
    상기 제1프레임 버퍼에 생성된 제1영상을 디스플레이 장치에 출력하는 영상출력부;를 포함하는 고해상도 영상 또는 입체 영상의 허브기능을 구비한 모바일단말기.
  2. 제1항에 있어서, 상기 속성정보는,
    해상도 또는 3D 지원 여부를 포함하는 고해상도 영상 또는 입체 영상의 허브기능을 구비한 모바일단말기.
  3. 제1항에 있어서, 상기 영상 모드는
    3D 입체 영상 모드 또는 일반 고해상도 모드를 포함하는 고해상도 영상 또는 입체 영상의 허브기능을 구비한 모바일단말기.
  4. 제3항에 있어서, 상기 영상처리부는,
    상기 결정된 영상 모드가 3D 입체 영상 모드이면 상기 렌더링 함수를 제1 렌더링 함수와 제2 렌더링 함수로 변경하는 함수변경부;를 더 포함하고,
    상기 제1영상생성부는,
    상기 3D 그래픽 모델에 대해 제1 렌더링 함수 및 제2 렌더링 함수를 적용하여 각각 3D 입체의 제1영상을 생성하기 위한 제1시점 영상 및 제2시점 영상을 생성하는 고해상도 영상 또는 입체 영상의 허브기능을 구비한 모바일단말기.
  5. 제1항에 있어서, 상기 영상처리부는,
    상기 제1프레임 버퍼 또는 제1그래픽 버퍼에 생성된 영상을 텍스처(Texture)로 입력받아 상기 렌더링 함수를 통해 렌더링하여 제2영상을 제2프레임 버퍼에 생성하는 제2영상생성부;를 더 포함하고,
    상기 영상출력부는,
    상기 제2프레임 버퍼에 생성된 제2영상을 모바일단말기의 표시수단에 출력하는 고해상도 영상 또는 입체 영상의 허브기능을 구비한 모바일단말기.
  6. 제5항에 있어서, 상기 그래픽 처리 함수는,
    렌더링 타겟(Traget) 버퍼 지정 함수 및 뷰포트(Viewport) 함수를 더 포함하고,
    상기 영상처리부는,
    상기 렌더링 타겟 버퍼 지정 함수의 타겟 버퍼 설정값과 상기 뷰포트 함수의 뷰포트 영역 설정값을 제1프레임 버퍼 또는 제2프레임 버퍼에 대응되는 값으로 변경하는 함수변경부;를 더 포함하는 고해상도 영상 또는 입체 영상의 허브 기능을 구비한 모바일단말기.
  7. 유선 또는 무선으로 연결된 디스플레이 장치를 검출하는 단계;
    상기 검출된 디스플레이 장치의 속성정보를 추출하는 단계;
    상기 추출된 속성정보에 기초하여 디스플레이 장치에 출력될 영상 모드를 결정하는 단계;
    렌더링 함수를 포함하는 그래픽 처리 함수를 호출하는 단계;
    상기 결정된 영상 모드에 따라 상기 렌더링 함수를 통해 3D 그래픽 모델을 렌더링하여 제1프레임 버퍼에 제1영상을 생성하거나, 또는 상기 렌더링 함수를 통해 3D 그래픽 모델을 렌더링하여 제1그래픽 버퍼에 영상을 생성한 후 그 영상을 다시 렌더링하여 제1프레임 버퍼에 제1영상을 생성하는 단계; 및
    상기 제1프레임 버퍼에 생성된 제1영상을 디스플레이 장치에 출력하는 단계;를 포함하는 모바일단말기를 이용하여 고해상도 영상 또는 입체 영상 제공방법.
  8. 제7항에 있어서, 상기 속성정보는,
    해상도 또는 3D 지원 여부를 포함하는 모바일단말기를 이용하여 고해상도 영상 또는 입체 영상 제공방법.
  9. 제7항에 있어서, 상기 영상 모드는
    3D 입체 영상 모드 또는 일반 고해상도 모드를 포함하는 모바일단말기를 이용하여 고해상도 영상 또는 입체 영상 제공방법.
  10. 제9항에 있어서, 상기 제1영상을 생성하는 단계는,
    상기 결정된 영상 모드가 3D 입체 영상 모드이면 상기 렌더링 함수를 제1 렌더링 함수와 제2 렌더링 함수로 변경하는 단계;
    상기 3D 그래픽 모델에 대해 제1 렌더링 함수를 적용하여 3D 입체의 제1영상 을 생성하기 위한 제1시점 영상을 생성하는 단계; 및
    상기 3D 그래픽 모델에 대해 제2 렌더링 함수를 적용하여 3D 입체의 제1영상 을 생성하기 위한 제2시점 영상을 생성하는 단계;를 포함하는 모바일단말기를 이용하여 고해상도 영상 또는 입체 영상 제공방법.
  11. 제7항에 있어서,
    상기 제1프레임 버퍼 또는 제1그래픽버퍼에 생성된 영상을 텍스처(Texture)로 입력받아 상기 렌더링 함수를 통해 렌더링하여 제2영상을 제2프레임 버퍼에 생성하는 단계; 및
    상기 제2프레임 버퍼에 생성된 제2영상을 모바일단말기의 표시수단에 출력하는 단계;를 더 포함하는 모바일단말기를 이용하여 고해상도 영상 또는 입체 영상 제공방법.
  12. 제11항에 있어서, 상기 제1영상 생성 단계 이전에,
    렌더링 타겟 버퍼 지정 함수의 타겟 버퍼 설정값과 뷰포트 함수의 뷰포트 영역 설정값을 제1프레임 버퍼에 대응되는 값으로 변경하는 단계;를 더 포함하고,
    상기 제2영상 생성 단계 이전에,
    상기 렌더링 타겟 버퍼 지정 함수의 타겟 버퍼 설정값과 상기 뷰포트 함수의 뷰포트 영역 설정값을 제2프레임 버퍼에 대응되는 값으로 변경하는 단계;를 더 포함하는 모바일단말기를 이용하여 고해상도 영상 또는 입체 영상 제공방법.
KR1020120050965A 2012-05-14 2012-05-14 고해상도 영상 또는 입체 영상의 허브기능을 구비한 모바일단말기 및 그 모바일단말기를 이용하여 고해상도 영상 또는 입체 영상 제공 방법 KR101337558B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120050965A KR101337558B1 (ko) 2012-05-14 2012-05-14 고해상도 영상 또는 입체 영상의 허브기능을 구비한 모바일단말기 및 그 모바일단말기를 이용하여 고해상도 영상 또는 입체 영상 제공 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120050965A KR101337558B1 (ko) 2012-05-14 2012-05-14 고해상도 영상 또는 입체 영상의 허브기능을 구비한 모바일단말기 및 그 모바일단말기를 이용하여 고해상도 영상 또는 입체 영상 제공 방법

Publications (2)

Publication Number Publication Date
KR20130127212A KR20130127212A (ko) 2013-11-22
KR101337558B1 true KR101337558B1 (ko) 2013-12-06

Family

ID=49854857

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120050965A KR101337558B1 (ko) 2012-05-14 2012-05-14 고해상도 영상 또는 입체 영상의 허브기능을 구비한 모바일단말기 및 그 모바일단말기를 이용하여 고해상도 영상 또는 입체 영상 제공 방법

Country Status (1)

Country Link
KR (1) KR101337558B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200091260A (ko) * 2019-01-22 2020-07-30 (주)스코넥엔터테인먼트 가상 환경 제어 시스템

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020041736A (ko) * 2000-11-28 2002-06-03 다니구찌 이찌로오, 기타오카 다카시 제트 좌표값에 의거하여 알파값을 제어하는 3차원그래픽스 묘화장치 및 그 방법
KR100670152B1 (ko) 2005-09-26 2007-01-16 삼성에스디아이 주식회사 3d 그래픽 처리장치 및 이를 이용한 입체영상 표시장치
KR100800000B1 (ko) 2006-06-20 2008-01-31 엘지전자 주식회사 외부영상기기의 조건에 맞추어 데이터 포맷을 변환시키는영상디스플레이장치 및 그 제어방법
KR20110052306A (ko) * 2009-11-12 2011-05-18 엘지전자 주식회사 영상표시장치 및 그 동작방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020041736A (ko) * 2000-11-28 2002-06-03 다니구찌 이찌로오, 기타오카 다카시 제트 좌표값에 의거하여 알파값을 제어하는 3차원그래픽스 묘화장치 및 그 방법
KR100670152B1 (ko) 2005-09-26 2007-01-16 삼성에스디아이 주식회사 3d 그래픽 처리장치 및 이를 이용한 입체영상 표시장치
KR100800000B1 (ko) 2006-06-20 2008-01-31 엘지전자 주식회사 외부영상기기의 조건에 맞추어 데이터 포맷을 변환시키는영상디스플레이장치 및 그 제어방법
KR20110052306A (ko) * 2009-11-12 2011-05-18 엘지전자 주식회사 영상표시장치 및 그 동작방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200091260A (ko) * 2019-01-22 2020-07-30 (주)스코넥엔터테인먼트 가상 환경 제어 시스템
KR102212508B1 (ko) * 2019-01-22 2021-02-04 (주)스코넥엔터테인먼트 가상 환경 제어 시스템

Also Published As

Publication number Publication date
KR20130127212A (ko) 2013-11-22

Similar Documents

Publication Publication Date Title
US11748840B2 (en) Method for efficient re-rendering objects to vary viewports and under varying rendering and rasterization parameters
US10885607B2 (en) Storage for foveated rendering
US9904977B2 (en) Exploiting frame to frame coherency in a sort-middle architecture
US10776997B2 (en) Rendering an image from computer graphics using two rendering computing devices
EP3121786B1 (en) Graphics pipeline method and apparatus
KR100547258B1 (ko) 안티-에일리어싱 수퍼샘플링을 위한 방법 및 장치
JP5166552B2 (ja) グラフィックス処理システムにおけるオフスクリーンサーフェスのためのマルチバッファサポート
WO2018118203A1 (en) Foveated rendering in tiled architectures
JP5684089B2 (ja) デプスエンジンの動的な再配置を用いたグラフィックシステム
KR20170040698A (ko) 그래픽스 파이프라인을 수행하는 방법 및 장치
JPH10334273A (ja) 3次元画像処理装置及び3次元画像処理方法
EP4290464A1 (en) Image rendering method and apparatus, and electronic device and storage medium
CN105550973B (zh) 图形处理单元、图形处理系统及抗锯齿处理方法
CN114758051A (zh) 一种图像渲染方法及其相关设备
KR101337558B1 (ko) 고해상도 영상 또는 입체 영상의 허브기능을 구비한 모바일단말기 및 그 모바일단말기를 이용하여 고해상도 영상 또는 입체 영상 제공 방법
JP2005332195A (ja) テクスチャユニット、画像描画装置、テクセル転送方法
KR101227155B1 (ko) 저해상도 그래픽 영상을 고해상도 그래픽 영상으로 실시간 변환하는 그래픽 영상 처리 장치 및 방법
CN118043842A (zh) 一种渲染格式选择方法及其相关设备
JP5846373B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム、および、画像処理システム
CN117453170B (zh) 一种显示控制方法、装置及存储介质
CN108805964B (zh) 基于OpenGL ES的VR机顶盒启动动画制作方法及系统
US10311627B2 (en) Graphics processing apparatus and method of processing graphics pipeline thereof

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee