KR20120138185A - 저해상도 그래픽 영상을 고해상도 그래픽 영상으로 실시간 변환하는 그래픽 영상 처리 장치 및 방법 - Google Patents

저해상도 그래픽 영상을 고해상도 그래픽 영상으로 실시간 변환하는 그래픽 영상 처리 장치 및 방법 Download PDF

Info

Publication number
KR20120138185A
KR20120138185A KR1020110057554A KR20110057554A KR20120138185A KR 20120138185 A KR20120138185 A KR 20120138185A KR 1020110057554 A KR1020110057554 A KR 1020110057554A KR 20110057554 A KR20110057554 A KR 20110057554A KR 20120138185 A KR20120138185 A KR 20120138185A
Authority
KR
South Korea
Prior art keywords
image
graphic
frame buffer
function
rendering
Prior art date
Application number
KR1020110057554A
Other languages
English (en)
Other versions
KR101227155B1 (ko
Inventor
김성재
홍명엽
이동철
박범진
Original Assignee
주식회사 넥서스칩스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 넥서스칩스 filed Critical 주식회사 넥서스칩스
Priority to KR1020110057554A priority Critical patent/KR101227155B1/ko
Priority to PCT/KR2011/006818 priority patent/WO2012173304A1/ko
Publication of KR20120138185A publication Critical patent/KR20120138185A/ko
Application granted granted Critical
Publication of KR101227155B1 publication Critical patent/KR101227155B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals

Abstract

저해상도 그래픽 영상을 고해상도 그래픽 영상으로 실시간 변환하는 그래픽 영상 처리 장치 및 방법에 관한 것으로, 3D 그래픽 모델을 렌더링하여 제1 프레임 버퍼에 제1영상을 생성하는 제1영상 생성부 및 제1 프레임 버퍼에 생성된 제1영상을 텍스처(Texture)로 입력받아 렌더링하여 제1영상 보다 저해상도인 제2영상을 제2 프레임 버퍼에 생성하는 제2 영상 생성부를 포함한다. 그래픽 영상 처리 장치 및 방법에 따르면 대형 디스플레이 장치에 출력할 때 계단 현상이나 화질 저하의 현상을 해소할 수 있는 그래픽 영상 처리 장치 및 방법을 제공할 수 있다.

Description

저해상도 그래픽 영상을 고해상도 그래픽 영상으로 실시간 변환하는 그래픽 영상 처리 장치 및 방법{GRAPHIC IMAGE PROCESSING APPARATUS AND METHOD FOR REALTIME TRANSFORMING LOW RESOLUTION IMAGE INTO HIGH RESOLUTION IMAGE}
저해상도 그래픽 영상을 고해상도 그래픽 영상으로 실시간 변환하는 그래픽 영상 처리 장치 및 방법에 관한 것이다. 보다 상세하게는 모바일 단말에서 저해상도 일반 영상이나 입체 영상을 고해상도 일반 영상 또는 입체 영상으로 실시간 변환하여 대형 TV나 모니터에서 고해상도 영상을 출력하기 위한 기술이 개시된다.
종래에는 게임단말기, 스마트폰 등의 모바일 단말기에서 디스플레이되는 영상을 TV나 모니터 등의 대형 디스플레이 장치에 출력할 때 모바일 단말기에 디스플레이되는 영상을 그대로 단순히 확대하여 출력하는 방식을 취하고 있었다. 이와 같이 모바일 단말기에 디스플레이되는 영상을 대형 디스플레이 장치에 단순 확대하여 그대로 출력하면 모바일 단말기 디스플레이 장치의 해상도가 저해상도일 경우에는 대형 디스플레이 장치에 출력되는 영상의 품질이 현저하게 저하되고 입체감이 매우 떨어지는 문제가 있었다.
또한, 모바일 단말기와 3D TV나 3D 모니터 등의 대형 디스플레이 장치에 출력되는 입체 영상이 모두 동일한 해상도의 동일 영상을 사용하게 되면, 입체 영상을 출력할 때 3D TV나 3D 모니터 등의 대형 디스플레이 장치에서는 정상적이나, 터치 위주의 단말에서는 UI 조작이 비정상적으로 어려워지는 문제가 있었다.
저해상도 그래픽 영상을 고해상도 그래픽 영상으로 실시간 변환하여 3D TV나 3D 모니터 등의 대형 디스플레이 장치에 출력하고, 모바일 단말의 디스플레이 장치에는 일반 영상이나 입체 영상으로 디스플레이할 수 있는 그래픽 영상 처리 장치 및 방법을 제시하고자 한다.
이때, 실시간 변환되는 고해상도 그래픽 영상은 저해상도 그래픽 영상을 단순히 확대하는 것이 아니라 그래픽 가속기(GPU)를 이용하여 고해상도로 실시간 렌더링하여 고해상도 그래픽 영상으로 제작함으로써 대형 디스플레이 장치에 출력할 때 계단 현상이나 화질 저하의 현상을 해소할 수 있는 그래픽 영상 처리 장치 및 방법을 제시하기 위함이다.
일 양상에 따른 저해상도 그래픽 영상을 고해상도 그래픽 영상으로 실시간 변환하는 그래픽 영상 처리 장치는, 3D 그래픽 모델을 렌더링하여 제1 프레임 버퍼에 제1영상을 생성하는 제1영상 생성부와 제1 프레임 버퍼에 생성된 제1영상을 텍스처(Texture)로 입력받아 렌더링하여 제1영상 보다 저해상도인 제2영상을 제2 프레임 버퍼에 생성하는 제2 영상 생성부를 포함한다.
다른 양상에 따르면, 그래픽 처리 함수 중 렌더링 타겟(Target) 버퍼 지정 함수의 타겟 버퍼 설정과 뷰포트(Viewport) 함수의 뷰포트 영역 설정 중의 어느 하나 이상을 제1 프레임 버퍼 또는 제2 프레임 버퍼에 대응되는 값으로 변경하는 함수변경부를 더 포함할 수 있다.
또한, 다른 양상에 따르면, 제1 프레임 버퍼와 제2 프레임 버퍼에 생성된 제1 영상과 제2 영상을 각각 대응되는 디스플레이 장치로 출력하는 영상출력부를 더 포함할 수 있다.
또한, 추가적 양상에 따르면, 3D 그래픽 모델은, 단일 시점의 영상을 생성하기 위한 3D 그래픽 모델 정보 또는 입체 영상을 생성하기 위한 좌안 및 우안에 대응되는 3D 그래픽 모델 정보를 포함할 수 있다.
한편, 함수변경부는 3D 그래픽 모델이 단일 시점의 영상을 생성하기 위한 3D 그래픽 모델 정보를 포함하는 경우에는 그래픽 처리 함수 중 렌더링 함수를 제1 렌더링 함수와 제2 렌더링 함수로 변경할 수 있다.
이때, 제1 영상 생성부는, 3차원 그래픽 모델에 대해 제1 렌더링 함수와 제2 렌더링 함수를 적용하여 제1 프레임버퍼에 각각 제1 시점 영상 및 제2 시점 영상을 생성할 수 있다.
일 양상에 따른, 저해상도 그래픽 영상을 고해상도 그래픽 영상으로 실시간 변환하는 그래픽 영상 처리 방법은, 3D 그래픽 모델을 렌더링하여 제1 프레임 버퍼에 제1영상을 생성하는 제1영상 생성 단계와 제1 프레임 버퍼에 생성된 제1영상을 텍스처(Texture)로 입력받아 렌더링하여 제1영상 보다 저해상도인 제2영상을 제2 프레임 버퍼에 생성하는 제2 영상 생성 단계를 포함할 수 있다.
또한, 다른 양상에 따르면, 제1영상 생성 단계는, 그래픽 처리 함수 중 렌더링 타겟(Target) 버퍼 지정 함수의 타겟 버퍼 설정과 뷰포트(Viewport) 함수의 뷰포트 영역 설정 중의 어느 하나 이상을 상기 제1 프레임 버퍼에 대응되는 값으로 변경하는 단계를 포함할 수 있다.
또한, 다른 양상에 따르면, 제2영상 생성 단계는, 그래픽 처리 함수 중 렌더링 타겟(Target) 버퍼 지정 함수의 타겟 버퍼 설정과 뷰포트(Viewport) 함수의 뷰포트 영역 설정 중의 어느 하나 이상을 상기 제2 프레임 버퍼에 대응되는 값으로 변경하는 단계를 포함할 수 있다.
또한, 추가적 양상에 따르면, 저해상도 그래픽 영상을 고해상도 그래픽 영상으로 실시간 변환하는 그래픽 영상 처리 방법은, 제1 프레임 버퍼와 제2 프레임 버퍼에 생성된 제1 영상과 제2 영상을 각각 대응되는 디스플레이 장치로 출력하는 영상출력 단계를 더 포함할 수 있다.
또한, 제1영상 생성 단계는, 3D 그래픽 모델이 단일 시점의 영상을 생성하기 위한 3D 그래픽 모델 정보를 포함하는 경우에 그래픽 처리 함수 중 렌더링 함수를 제1 렌더링 함수와 제2 렌더링 함수로 변경하는 단계를 더 포함할 수 있고, 3차원 그래픽 모델에 대해 제1 렌더링 함수와 제2 렌더링 함수를 적용하여 제1 프레임 버퍼에 각각 제1 시점 영상 및 제2 시점 영상을 생성할 수 있다.
저해상도 일반 영상 또는 입체 영상을 고해상도 일반 영상 또는 입체 영상으로 실시간 변환하여 3D TV나 3D 모니터 등의 대형 디스플레이 장치에 출력하고, 모바일 단말의 디스플레이 장치에는 저해상도의 일반 영상이나 입체 영상을 디스플레이할 수 있는 그래픽 영상 처리 장치 및 방법을 제공할 수 있다.
또한, 실시간 변환되는 고해상도 일반 영상 또는 입체 영상은 저해상도 영상을 단순히 확대하는 것이 아니라 그래픽 가속기(GPU)를 이용하여 고해상도로 실시간 렌더링하여 고해상도 영상으로 제작함으로써 대형 디스플레이 장치에 출력할 때 계단 현상이나 화질 저하의 현상을 해소할 수 있는 그래픽 영상 처리 장치 및 방법을 제공할 수 있다.
도 1은 일 실시예에 따라 저해상도 그래픽 영상과 고해상도 그래픽 영상이 각 디스플레이 장치에 출력되는 예이다.
도 2는 그래픽 영상 처리 장치가 포함된 모바일 단말기의 개략적인 블럭도이다.
도 3은 일 실시예에 따른 저해상도 그래픽 영상을 고해상도 그래픽 영상으로 실시간 변환하는 그래픽 영상 처리 장치의 블럭도이다.
도 4는 일 실시예에 따른 저해상도 그래픽 영상을 고해상도 그래픽 영상으로 실시간 변환하는 그래픽 영상 처리 방법의 흐름도이다.
도 5는 도 4의 실시예에 따른 제1 영상 생성 단계의 세부 절차의 흐름도이다.
도 6은 도 4의 실시예에 따른 제2 영상 생성 단계의 세부 절차의 흐름도이다.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
이하, 실시예들에 의해 저해상도 그래픽 영상을 고해상도 그래픽 영상으로 실시간 변환하는 그래픽 영상 처리 장치 및 그 방법을 설명하기 위하여 도면들을 참고하여 상세히 설명하도록 한다.
도 1은 일 실시예에 따라 저해상도 그래픽 영상과 고해상도 그래픽 영상이 각 디스플레이 장치에 출력되는 예이다.
도 1에는 모바일 단말기와 모바일 단말기에 외부 단자를 통해 연결되어 모바일 단말기에서 디스플레이되는 영상을 출력하는 대형 디스플레이 장치가 도시되어 있다. 모바일 단말기는 게임 단말기나 스마트폰 등과 같이 영상이 출력되는 모든 장치를 포함한다. 대형 디스플레이 장치는 일반적으로 TV나 모니터 등으로, 이에 한정되지 아니하고 모바일 단말기와 비교하여 상대적으로 더 고해상도를 지원하는 모든 장치를 포함할 수 있다. 이때, 저해상도 고해상도의 기준은 픽셀 수로 환산한 경우 2배 정도 차이가 나는 경우를 들 수 있다. 예를 들어 저해상도 800×480 (384000) 대비 고해상도 1280×720 (921600)의 픽셀수가 2.4배 많다. 그러나, 고해상도와 저해상도의 픽셀 수가 반드시 2배 이상의 차이가 나는 경우만을 의미하는 것으로 한정되어서는 아니된다.
또한, 모바일 단말기와 대형 디스플레이 장치는 일반 영상(2D 영상)이나 입체 영상을 출력할 수 있는 장치를 모두 포함하는 것으로 해석되어야 한다. 도 1에 도시된 바와 같이 모바일 단말기와 대형 디스플레이 장치에서 출력될 수 있는 영상의 타입은 각 장치들이 지원하는 형식에 따라 여러 가지 조합으로 출력될 수 있다.
도 2는 그래픽 영상 처리 장치가 포함된 모바일 단말기의 개략적인 블럭도이다. 도 2에 도시된 바와 같이 게임 단말기나 스마트폰 등의 모바일 단말기는 그래픽 애플리케이션 등을 실행한다.
도 2에 나타낸 바와 같이, 그래픽 영상 처리 장치(100)는 그래픽 애플리케이션으로부터 3D 그래픽 모델링 데이터를 입력받는다. 그래픽 영상 처리 장치(100)는 모바일 단말기에 내장된 GPU(Graphic Processing Unit)를 사용하여 입력된 3D 그래픽 모델링 데이터에 대해 렌더링 작업을 수행하여 대형 디스플레이 장치에 출력될 상대적으로 고해상도 영상과, 모바일 단말기에서 디스플레이될 상대적으로 저해상도 영상을 각각 생성하여 각 장치에 출력한다.
3D 그래픽 모델링 데이터란 3D 물체에 대한 정보로서, 지오메트리(geometry), 시점, 텍스처 매핑(texture mapping), 조명, 셰이딩(shading) 정보 등을 포함할 수 있다. 그래픽 영상 처리 장치(100)에 입력되는 3D 그래픽 모델링 데이터는 그래픽 영상 즉, 단일 시점의 일반 영상 또는 좌안 및 우안의 입체 영상을 생성하기 위한 데이터를 포함할 수 있다. 그래픽 영상이란 실시간 렌더링 기술을 이용하여 실시간으로 생성되는 영상을 의미하며, 단일 시점 및 입체를 위한 다시점 영상을 모두 포함할 수 있다.
한편, 실시간 렌더링(Realtime Rendering)은 컴퓨터 프로그램을 이용하여 3D 그래픽 모델 데이터로부터 래스터 그래픽스 이미지라 불리는 영상을 실시간으로 만드는 과정을 의미한다. 실시간 렌더링은 아키텍처, 비디오 게임, 시뮬레이터, 특수 효과, 디자인 시각화 등 다양한 분야에 사용된다. 실시간 렌더링은 많은 연산이 필요로 하기 때문에 렌더링 속도 향상을 위하여 그래픽 가속기(GPU)를 사용한다.
그래픽 가속기(GPU)는 일반적으로 단말에 하드웨어 칩 형태로 장착될 수 있는데, 단말의 소프트웨어 플랫폼에서 단말에 부착된 그래픽 가속기(GPU)를 사용하기 위해서는 해당 그래픽 가속기용 그래픽 라이브러리가 존재하게 되며, 그래픽 라이브러리를 사용하여야만 실질적인 그래픽 가속기의 그래픽 가속을 활용할 수 있게 된다.
이때, 그래픽 라이브러리라 함은 산업계에서 보편적으로 활용되고 있는 실시간 렌더링 그래픽 개발 API(application programming interface)를 구현한 것으로, 그래픽 라이브러리 내부에서 하드웨어 그래픽 가속기 드라이버를 통해 가속기를 제어한다. 그래픽 라이브러리는 크게 데이터 설정 함수, 상태 변환 함수, 렌더링 함수로 나누어진다. 데이터 설정 함수는 모델 데이터(3D Vertex 등)을 설정하고, 상태 변환 함수는 렌더링 방식을 설정하는 함수이다. 렌더링 함수는 실질적으로 지오메트리 처리 및 프레임 버퍼에 래스터화(rasterization)를 수행하는 함수이다.
단일 플랫폼에서 그래픽 가속기를 지원하기 위한 그래픽 라이브러리는 그래픽 가속기 제조사에서 제공한다. PC의 그래픽 라이브러리로는 DirectX 및 OpenGL이 있다. 임베디드(embedded) 기기상에서는 대부분 OpenGL ES 스펙에 따라 라이브러리가 제공되고 있으며, 윈도우즈 계열에서는 Direct3D Mobile이 추가로 제공되고 있다. 단, 그래픽 라이브러리는 여기에 기술된 라이브러리만으로 국한하지 않으며, GPU를 사용하기 위한 모든 종류의 그래픽 라이브러리를 의미한다.
도 3은 일 실시예에 따른 저해상도 그래픽 영상을 고해상도 그래픽 영상으로 실시간 변환하는 그래픽 영상 처리 장치의 블럭도이다. 이하, 도 3을 참조하여 저해상도 그래픽 영상을 고해상도 그래픽 영상으로 실시간 변환하는 그래픽 영상 처리 장치에 대해 자세히 설명한다.
그래픽 영상 처리 장치(100)는 제1영상 생성부(120)와 제2영상 생성부(130)를 포함한다. 제1영상 생성부(120)는 3D 그래픽 모델을 렌더링하여 제1 프레임 버퍼(123)에 제1영상을 생성한다.
좀 더 구체적으로, 제1영상 생성부(120)는 지오메트리 처리부(121)와 래스터처리부(122)를 포함할 수 있다.
일반적으로, 3D 그래픽 가속기를 이용하여 그래픽을 처리하는 과정은 크게 지오메트리 처리(Geometry processing) 과정과 래스터 처리(rasterization) 과정으로 나눌 수 있다.
먼저, 기하학적 처리 과정은 주로 3D 좌표계의 물체를 시점에 따라 변환하고, 조명 처리와 셰이딩을 수행하며, 2차원 좌표계로 투영 처리하는 과정을 말한다. 기하학적 처리 과정은 상당한 량의 행렬 연산과 삼각함수 연산을 포함하므로 상당한 연산부하가 발생한다. 종래의 3D 그래픽 처리 방식에서는 CPU가 이러한 기하학적 처리 과정을 수행하였으나, 최근에는 3D 그래픽 가속기에서 이러한 기하학적 처리 과정을 수행하도록 함으로써 CPU의 연산 부하를 대폭 감소시켜, 전체 시스템의 성능을 향상시켰다.
래스터 처리 과정은 2차원 좌표계의 이미지에 색깔 값을 결정하며 프레임 버퍼에 저장하는 과정을 말한다. 래스터 처리 과정은 Triangle 초기화, Edge walk, Span processing, Z-test, Alpha-blend, Color blend, texture mapping 등의 여러 단계의 하위 처리 과정으로 다시 나누어진다.
지오메트리 처리 과정을 수행하는 지오메트리 처리부(121)는 3D 그래픽 모델에 대한 지오메트리 변환(geometry transformation)을 수행한다. 지오메트리 변환은 어파인 변환(affine transformation)을 이용하여 3D 그래픽 모델을 변형하는 과정이다. 어파인 변환은 도형의 이동, 확대/축소 및 회전 변환을 포함한다. 지오메트리 변환은 3D 그래픽 모델에 대한 모델뷰 변환(model-view transformation), 조명 산출(lighting calculation), 투영 변환(projection transformation), 클립 테스트(clip test), 뷰포트 변환(view port transformation) 등을 포함한다.
모델뷰 변환은 3D 그래픽 모델의 시점(viewpoint)을 변환하는 과정이다. 조명 산출은 점 광원, 평행 광원, 집중 광원 등과 같은 소정의 광원으로부터 3D 그래픽 모델에 투사되는 투사광의 방향 및 광량, 반사광의 방향 및 광량, 주변광 등을 산출하는 과정이다. 투영 변환은 카메라 안에 있는 물체(시야절두체)를 입방체에 맵핑시키는 과정으로, 투영 변환에 의해 카메라에 가까이 위치한 개체가 확대되는 원근감 효과가 생긴다. 클립 테스트는 뷰포트 변환을 위해 3D 그래픽 모델에서 맵핑된 입방체의 영역을 벗어나는 부분 및 보이지 않는 부분을 잘라내는 과정이다. 뷰포트 변환은 투영 변환된 3D 그래픽 모델을 스크린상의 좌표계로 변환하는 과정이다.
지오메트리 처리부(121)는 지오메트리 변환을 통하여 3D 그래픽 모델을 벡터 그래픽스(vector graphics)로 변환한다. 벡터 그래픽스는 선의 위치, 길이, 방향을 수학적으로 표현하는 방법이다. 즉, 지오메트리 처리부(121)는 각 과정을 수행하는 모델뷰 변환 함수, 조명 산출 함수, 투영 변환 함수, 클립 테스트 함수 및 뷰포트 변환 함수를 이용하여 지오메트리 변환을 수행할 수 있다. 특히, 모델뷰 변환 함수 및 투영 변환 함수는 3D 그래픽 모델의 좌표를 변환하는 4 X 4 매트릭스로 표현될 수 있다. 지오메트리 처리부(121)는 하드웨어에 의해 지오메트리 변환을 고속화하는 지오메트리 엔진을 이용할 수 있다.
래스터화 과정을 수행하는 래스터 처리부(122)는 지오메트리 변환에 의해 벡터 그래픽스로 변환된 3D 그래픽 모델에 대해 래스터화(rasterization)를 수행한다. 래스터화는 벡터 그래픽스를 픽셀 패턴 이미지로 변환하는 과정이다. 즉, 래스터 처리부(122)는 실태가 없었던 3D 그래픽 모델의 폴리곤(polygon)을 화면상의 픽셀에 대응시켜 붙여주는 과정을 수행한다.
폴리곤은 3차원 컴퓨터그래픽에서 입체형상을 표현할 때 사용하는 가장 작은 단위인 다각형을 가리킨다. 빠른 계산이 필요한 3차원 컴퓨터그래픽이나 3차원 캐드(3D CAD)에서 많이 사용한다. 3차원 공간에서 시작점과 끝점이 선으로 연결된 폴리 라인으로 곡선 위에 있는 몇 개의 점을 직선으로 이어서 곡선을 표현하는 방법으로 물체의 테두리를 나타내기 위해 사용된다. 3차원 컴퓨터 그래픽에서 입체도형을 그릴 때, 물체표면을 작은 삼각형 모양의 폴리곤으로 분할한다. 분할한 폴리곤을 수치 데이터로 바꾸면 물체의 보이지 않는 부분을 계산하고, 화면에 영상으로 나타낼 수 있기 때문이다. 물체표면을 분할할 때는 대부분 계산하기 쉬운 삼각형이 쓰인다. 삼각형 폴리곤이 모여 사각형 폴리곤을 만든다. 하나의 폴리곤은 하나의 면을 나타내며, 폴리곤 수를 늘리면 늘릴수록 물체가 세밀하게 표현된다. 하지만 계산해야 할 양이 증가해 작업시간은 오래 걸린다.
래스터 처리부(122)는 상대적으로 고해상도인 외부 디스플레이 장치에 맞는 고화질의 영상이 출력될 수 있도록 복잡한 폴리곤 모델을 이용한다.
지오메트리 처리부(121)에서 지오메트리 변환이 수행된 3D 그래픽 모델에 대해 래스터화가 수행되어 제1 영상을 제1 프레임 버퍼(123)에 전달하여 제1 프레임 버퍼(123)에 제 1영상이 실시간으로 생성되도록 한다. 래스터 처리부(122)는 하드웨어에 의해 래스터화 변환을 고속화하는 래스터 엔진을 이용할 수 있다.
이와 같이 제1 영상 생성부(120)는 입력되는 3D 그래픽 모델에 대해 지오메트리 처리 과정과 래스터 처리 과정을 거쳐 대형 디스플레이 장치에 출력될 고해상도의 영상을 생성한다.
3D 그래픽 모델 데이터가 입체를 위한 다시점 영상으로서 입체 영상을 생성할 경우에는 시점별로 제1프레임 버퍼의 렌더링 영역을 나누어 시점별로 위와 같은 렌더링 과정을 반복하여 다 시점의 입체 영상을 생성하는 과정을 수행한다.
제2 영상 생성부(130)는 제1영상 생성부(120)에 의해 제1 프레임 버퍼(123)에 생성된 제1영상을 텍스처(Texture)로 입력받아 렌더링하여 제1영상 보다 저해상도인 제2영상을 제2 프레임 버퍼(133)에 생성한다.
즉, 제2 영상 생성부(130)는 상대적으로 저해상도인 모바일 단말기에 출력될 영상을 생성하기 위해 먼저 제1 영상 생성부(120)에 의해 생성된 고해상도 영상을 텍스쳐로 입력받아 단순 폴리곤에 렌더링을 수행하여 제2 영상을 생성한다. 상대적으로 저해상도의 영상을 생성하게 되므로 복잡한 폴리곤에 대해 작업할 필요가 없고 하나 또는 두 개의 폴리곤에 입력받은 고해상도 텍스처를 매핑하여 쉽고 빠르게 저해상도 영상을 생성할 수 있다. 다만, 단순 폴리곤은 반드시 하나 또는 두개로 한정되는 것이 아니고 모바일 단말기가 지원하는 해상도에 따라 달라질 수 있다. 또한, 해당 단말의 GPU나 Processor에서 Memory 축소/확대 전송을 지원할 경우 이러한 기능을 이용하여 고해상도인 제1프레임 버퍼(123)의 내용을 저해상도인 제2프레임 버퍼에(133)에 전송할 수도 있다.
제2 영상 생성부(130)는 제1 영상 생성부(120)와 마찬가지로 지오메트리 처리부(131)와 래스터 처리부(132)를 포함할 수 있다. 제2 영상 생성부(130)의 지오메트리 처리부(131)는 지오메트리 변환을 수행한다. 래스터 처리부(132)는 제1 영상생성부(120)의 래스터 처리부(123)와 같이 입력된 고해상도인 제1 영상의 텍스처를 단순한 폴리곤에 매핑하여 래스터화를 수행하여 제2 프레임 버퍼(133)에 저해상도의 제2 영상을 생성한다.
한편, 추가적인 양상에 따르면, 그래픽 영상 처리 장치(100)는 함수변경부(110)를 더 포함할 수 있다. 함수변경부(110)는 그래픽 처리 함수 중 렌더링 타겟(Target) 버퍼 지정 함수의 타겟 버퍼 설정과 뷰포트(Viewport) 함수의 뷰포트 영역 설정 중의 어느 하나 이상을 제1 프레임 버퍼(123) 또는 제2 프레임 버퍼(133)에 대응되는 값으로 변경한다.
일반적으로, GPU를 이용하여 3D 그래픽 모델 데이터를 처리하여 영상을 생성하는 모바일 단말기의 경우 기본적인 렌더링 타겟 버퍼는 단말기에 출력될 버퍼로 설정되어 있고, 뷰포트(Viewport) 영역 또한 단말기에 맞도록 설정되어 있다.
먼저 단말기에 맞는 저해상도 영상을 생성한 후 단순히 이를 확대하여 외부 디스플레이 장치에 맞는 고해상도 영상을 생성하여 출력하는 종래의 방식과는 달리, 그래픽 영상 처리 장치(100)는 함수변경부(110)가 먼저 외부 디스플레이 장치에 맞는 고해상도 영상을 제1 프레임 버퍼(123)에 생성하기 위해 그래픽 처리 함수 중 렌더링 타겟 버퍼를 지정하는 함수의 설정을 외부 대형 디스플레이 장치에 출력하기 위한 고해상도 영상이 생성될 제1 프레임 버퍼로 변경하고, 뷰포트(Viweport) 함수의 뷰포트 영역 설정을 외부 디스플레이 장치에 맞는 뷰포트 영역으로 변경한다.
그리고, 제1 영상 생성부(120)의 렌더링 함수가 그 설정값을 이용하여 3D 그래픽 모델 데이터에 대해 렌더링을 수행하여 제1프레임 버퍼(123)에 고해상도의 제1 영상을 생성한다.
그 다음, 제1 영상 생성부(120)에 의해 제1 영상 생성이 끝나면, 함수변경부(110)는 모바일 단말기에 맞는 저해상도 영상을 제2 프레임 버퍼(123)에 생성하기 위해 그래픽 처리 함수 중 렌더링 타겟 버퍼를 지정하는 함수의 설정을 제2 프레임 버퍼로 변경하고, 뷰포트(Viweport) 함수의 뷰포트 영역 설정을 모바일 장치에 맞는 뷰포트 영역으로 변경한다.
그 다음, 제2 영상 생성부(130)의 렌더링 함수가 그 설정값을 이용하여 제1 영상을 이용하여 렌더링을 수행하여 제2 프레임 버퍼(133)에 저해상도 제2 영상을 생성한다.
추가적인 실시예에 의하면, 그래픽 영상 처리 장치(100)는 영상출력부(140)를 더 포함할 수 있다. 영상출력부(140)는 제1 프레임 버퍼(123)와 제2 프레임 버퍼(133)에 생성된 제1 영상과 제2 영상을 각각 대응되는 디스플레이 장치로 출력한다. 영상출력부(140)는 제1 프레임 버퍼(123)에 생성된 고해상도 영상을 외부 대형 디스플레이 장치로 출력하고, 제2 프레임 버퍼(133)에 생성된 저해상도 영상은 모바일 단말기로 출력한다. 이때, 제1 프레임 버퍼(123)를 외부 디스플레이 장치의 출력 버퍼로 지정하여 복사하는 과정 없이 출력할 수 있다.
한편, 제1영상 생성부(120) 또는 제2영상 생성부(130)는, 각각 대응되는 출력 디스플레이 장치가 지원하는 출력 영상 타입에 맞도록 일반 영상 또는 입체 영상을 생성할 수 있다.
예를 들어, 모바일 단말기와 대형 디스플레이 장치가 모두 일반 영상만을 지원한다면 입력되는 3D 그래픽 모델 데이터가 입체 영상을 생성하기 위한 다시점 영상 정보를 포함하는 경우에도 다시점 영상 중 어느 하나의 데이터를 이용하여 제1영상 생성부(120)와 제2 영상 생성부(130) 모두 일반 영상을 생성한다.
그러나, 모바일 단말기나 대형 디스플레이 장치 중 어느 하나가 입체 영상을 지원하는 장치인 경우에는 다시점 영상의 3D 그래픽 모델 데이터를 모두 이용하여 제1영상 생성부(120)가 고해상도 입체 영상(제1 영상)을 생성한다. 그 다음, 모바일 단말기가 입체 영상을 지원하면 제2 영상 생성부(130)가 제1영상 생성부(120)에 의해 생성된 입체 영상(제1 영상)을 텍스처로 입력받아 저해상도 입체 영상(제2 영상)을 생성한다. 만약 모바일 단말기가 일반 영상만을 지원하는 경우에는 제2 영상 생성부(130)는 제1 영상의 좌안 또는 우안 영상 중의 어느 하나를 텍스처로 입력받아 일반적인 저해상도 일반 영상을 생성한다.
한편, 입력되는 3D 그래픽 모델은, 단일 시점의 영상을 생성하기 위한 3D 그래픽 모델 정보 또는 입체 영상을 생성하기 위한 좌안 및 우안에 대응되는 3D 그래픽 모델 정보를 포함할 수 있다.
추가적인 양상에 따르면, 함수변경부(110)는 3D 그래픽 모델 데이터가 일반 영상을 생성하기 위한 단일 시점 영상 정보인 경우 그래픽 처리 함수 중 렌더링 함수를 제1 렌더링 함수와 제2 렌더링 함수로 변경할 수 있다. 제1 영상 생성부(120)는, 3차원 그래픽 모델에 대해 제1 렌더링 함수와 제2 렌더링 함수를 적용하여 제1 프레임버퍼(123)에 각각 제1 시점 영상 및 제2 시점 영상을 생성한다.
좀 더 구체적으로 설명하면, 함수변경부(110)는 단일 시점의 3D 그래픽 모델의 입체 변환을 실시간으로 수행한다. 제1 렌더링 함수는 3D 그래픽 모델에 대한 제1 시점 영상을 생성하기 위하여 모델뷰 행렬 값, 투영 행렬 값 및 뷰포트 값을 포함하고, 제2 렌더링 함수는 3D 그래픽 모델에 대한 제2 시점 영상을 생성하기 위하여 모델뷰 행렬 값, 투영 행렬 값 및 뷰포트 값을 포함한다. 제1 렌더링 함수는 제1 시점 영상을 생성하기 위하여 모델뷰 행렬 값, 투영 행렬 값 및 뷰포트 값을 변경하여 렌더링을 수행하는 함수를 의미한다. 제2 렌더링 함수는 제2 시점 영상을 생성하기 위하여 모델뷰 행렬 값, 투영 행렬 값 및 뷰포트 값을 변경하여 렌더링을 수행하는 함수를 의미한다.
모델뷰 행렬(Model-View Matrix)은 3D 그래픽 모델의 시점을 변경하는 행렬값이고, 투영 행렬(Projection Matrix)은 3D 그래픽 모델을 가상의 공간에 맵핑시키는 행렬 값이며, 뷰포트(Viewport)는 3D 그래픽 모델을 스크린상의 좌표계로 변환하는 값이다. 뷰포트의 의미에는 클립 영역(Clip Area)을 포함할 수 있다.
제1 시점 영상은 좌안 영상 및 우안 영상 중 어느 하나, 제2 시점 영상은 다른 하나를 의미한다. 제1 시점 영상 및 제2 시점 영상의 조합으로 입체 영상이 표시된다.
이때, 투영 행렬 값과 뷰포트 값 변경은 최종 입체 영상의 형식에 따라 정해질 수 있다. 통상 Side by side (전체 영역 중 좌측 반은 좌안 또는 우안 영상, 우측 반은 우안 또는 좌안 영상), Top-down (전체 영역 중 상위 반은 좌안 또는 우안 영상, 하위 반은 우안 또는 좌안 영상)의 형식에 따라 투영 행렬 값과 뷰포트 값이 결정될 수 있으며, 이 외의 영역 분할에 대해서도 투영 행렬 값과 뷰포트 값 설정이 가능할 수 있다.
즉, 함수 변경부(110)는 지오메트리 처리 전 3D 그래픽 모델을 좌안 시점(Viewpoint) 위치로 이동/회전시켜 좌안 영상이 생성되도록 하고, 3D 그래픽 모델을 우안 시점(Viewpoint) 위치로 이동/회전시켜 우안 영상이 생성되도록 모델뷰 행렬을 변경할 수 있다. 이때 회전은 초점 위치에 맞도록 회전 할 수 있는데 초점의 위치는 임의의 점을 지정하거나 렌더링 장치의 Depth 정보를 이용하여 제일 가까이 있는 점을 구하여 자동으로 설정 가능하다. 그리고/또는 함수 변경부(110)는 3D 그래픽 모델에 대하여 카메라의 위치가 좌안 시점 또는 우안 시점으로 이동 설정되도록 모델뷰 행렬 값을 변경할 수 있다.
그리고, 함수 변경부(110)는 3D 그래픽 모델의 이동/회전 및/또는 카메라의 위치 설정에 따라 변경된 시점에서 3D 그래픽 모델이 입방체에 맵핑되도록 투영 행렬 값을 변경한다. 3D 그래픽 모델이 맵핑되는 입방체는 좌안 영상 또는 우안 영상이 표시되는 가상의 공간을 의미한다. 그리고 함수 변경부(110)는 좌안 시점 또는 우안 시점에서 3D 그래픽 모델이 스크린상의 좌표계로 변환되도록 뷰포트를 변경한다. 이때, 투영 행렬 값 및 뷰포트 값 둘 다 변경되거나 둘 중 하나만 변경될 수 있다.
함수변경부(110)는 렌더링 함수들에 대해 좌안 시점 및 우안 시점에 해당하는 모델뷰 행렬값, 투영 행렬값, 뷰포트 값을 변경하여 지오메트리 처리부(130)에 전달한다. 여기서 함수변경부(110)는 두 번에 걸쳐 좌안 및 우안에 대해 변경된 모델뷰 행렬값, 투영 행렬값, 뷰포트 값을 제1 영상 생성부(120)의 지오메트리 처리부(121)에 전달하게 된다.
도 4는 일 실시예에 따른 저해상도 그래픽 영상을 고해상도 그래픽 영상으로 실시간 변환하는 그래픽 영상 처리 방법의 흐름도이다. 도 5는 도 4의 실시예에 따른 제1 영상 생성 단계의 세부 절차의 흐름도이다. 도 6은 도 4의 실시예에 따른 제2 영상 생성 단계의 세부 절차의 흐름도이다.
이하, 도 4 내지 도 6을 참조하여 저해상도 그래픽 영상을 고해상도 그래픽 영상으로 실시간 변환하는 그래픽 영상 처리 방법에 대해 설명한다.
일시예에 따른 그래픽 영상 처리 방법은 먼저, 3D 그래픽 모델을 렌더링하여 제1 프레임 버퍼에 제1영상을 생성한다(단계 S100).
도 5를 참조하여 제1 영상을 생성하는 단계(단계 S100)에 대해 좀 더 구체적으로 살펴보면, 제1 영상 생성 단계(단계 S100)는, 3D 그래픽 모델링 데이터를 입력받는다(단계 S110). 3D 그래픽 모델링 데이터란 3D 물체에 대한 정보로서, 지오메트리(geometry), 시점, 텍스처 매핑(texture mapping), 조명, 셰이딩(shading) 정보 등을 포함할 수 있다. 그래픽 영상 처리 장치(100)에 입력되는 3D 그래픽 모델링 데이터는 일반 영상을 생성하기 위한 단일 시점 영상 또는 입체 영상을 생성하기 위한 좌안 및 우안의 다시점 영상에 대한 데이터를 포함할 수 있다.
만약, 3D 그래픽 모델이 단일 시점의 영상을 생성하기 위한 3D 그래픽 모델 정보를 포함하는 경우, 그래픽 처리 함수 중 렌더링 함수를 제1 렌더링 함수와 제2 렌더링 함수로 변경하는 단계를 더 포함할 수 있다. 이처럼, 제1 렌더링 함수와 제2 렌더링 함수로 변경되면, 제1영상 생성단계(단계 S100)의 이하 단계는 3차원 그래픽 모델에 대해 제1 렌더링 함수와 제2 렌더링 함수를 적용하여 상기 제1 프레임 버퍼에 각각 제1 시점 영상 및 제2 시점 영상을 생성한다.
그 다음, 그래픽 처리 함수 중 렌더링 타겟(Target) 버퍼 지정 함수의 타겟 버퍼 설정과 뷰포트(Viewport) 함수의 뷰포트 영역 설정 중의 어느 하나 이상을 제1 프레임 버퍼에 대응되는 값으로 변경한다(단계 S120). 즉, 함수변경부(110)가 먼저 외부 디스플레이 장치에 맞는 고해상도 영상을 제1 프레임 버퍼(123)에 생성하기 위해 그래픽 처리 함수 중 렌더링 타겟 버퍼를 지정하는 함수의 설정을 외부 대형 디스플레이 장치에 출력하기 위한 고해상도 영상이 생성될 제1 프레임 버퍼(123)로 변경하고, 뷰포트(Viweport) 함수의 뷰포트 영역 설정을 고해상도의 외부 디스플레이 장치에 맞는 뷰포트 영역으로 변경한다.
그 다음, 3D 그래픽 모델에 대한 지오메트리 처리 과정을 수행한다(단계 S130). 지오메트리 처리 과정을 수행하는 지오메트리 처리부(121)는 3D 그래픽 모델에 대한 지오메트리 변환(geometry transformation)을 수행한다. 지오메트리 처리부(121)는 지오메트리 변환을 통하여 3D 그래픽 모델을 벡터 그래픽스(vector graphics)로 변환한다. 벡터 그래픽스는 선의 위치, 길이, 방향을 수학적으로 표현하는 방법이다. 즉, 지오메트리 처리부(121)는 각 과정을 수행하는 모델뷰 변환 함수, 조명 산출 함수, 투영 변환 함수, 클립 테스트 함수 및 뷰포트 변환 함수를 이용하여 지오메트리 변환을 수행할 수 있다. 특히, 모델뷰 변환 함수 및 투영 변환 함수는 3D 그래픽 모델의 좌표를 변환하는 4 X 4 매트릭스로 표현될 수 있다. 지오메트리 처리부(121)는 하드웨어에 의해 지오메트리 변환을 고속화하는 지오메트리 엔진을 이용할 수 있다.
그 다음, 지오메트리 처리 단계에서 지오메트리 변환에 의해 벡터 그래픽스로 변환된 3D 그래픽 모델에 대해 래스터화(rasterization)를 수행한다(단계 S140). 래스터화는 벡터 그래픽스를 픽셀 패턴 이미지로 변환하는 과정이다. 즉, 래스터 처리부(122)는 실태가 없었던 3D 그래픽 모델의 폴리곤(polygon)을 화면상의 픽셀에 대응시켜 붙여주는 과정을 수행한다.
폴리곤은 3D 그래픽 모델을 표현하는 가장 작은 단위의 다각형을 의미한다. 래스터 처리부(122)는 상대적으로 고해상도인 외부 디스플레이 장치에 맞는 고화질의 영상이 출력될 수 있도록 복잡한 폴리곤 모델을 이용한다.
마지막으로, 제1 프레임 버퍼(123)에 제1 영상을 생성한다(단계 S150). 즉, 래스터 처리부(122)는 지오메트리 처리부(121)에서 지오메트리 변환이 수행된 3D 그래픽 모델에 대해 래스터화가 수행되어 제1 영상을 제1 프레임 버퍼(123)에 전달하여 제1 프레임 버퍼(123)에 제1영상이 실시간으로 생성되도록 한다. 래스터 처리부(122)는 하드웨어에 의해 래스터화 변환을 고속화하는 래스터 엔진을 이용할 수 있다.
그 다음, 그래픽 영상 처리 방법은 제1 영상 생성 단계(단계 S100)에서 제1 프레임 버퍼에 생성된 제1영상을 텍스처(Texture)로 입력받아 렌더링하여 제1영상 보다 저해상도인 제2영상을 제2 프레임 버퍼에 생성한다(단계 S200).
좀 더 구체적으로 제2 영상 생성 단계(단계 S200)를 살펴보면, 먼저, 그래픽 처리 함수 중 렌더링 타겟(Target) 버퍼 지정 함수의 타겟 버퍼 설정과 뷰포트(Viewport) 함수의 뷰포트 영역 설정 중의 어느 하나 이상을 상기 제2 프레임 버퍼에 대응되는 값으로 변경한다(단계 S210). 즉, 함수변경부(110)는 모바일 단말기에 맞는 저해상도 영상을 제2 프레임 버퍼(123)에 생성하기 위해 그래픽 처리 함수 중 렌더링 타겟 버퍼를 지정하는 함수의 설정을 제2 프레임 버퍼로 변경하고, 뷰포트(Viweport) 함수의 뷰포트 영역 설정을 모바일 장치에 맞는 뷰포트 영역으로 변경한다.
그 다음, 제1 프레임 버퍼에 생성된 제1 영상을 텍스처로 입력받는다(단계 S220). 제2 영상 생성부(130)는 상대적으로 저해상도인 모바일 단말기에 출력될 영상을 생성하기 위해 먼저 제1 영상 생성부(120)에 의해 생성된 고해상도 영상을 텍스쳐로 입력받는다.
그 다음, 단순 폴리곤에 대해 래스터 처리 과정을 수행한다(단계 S230). 즉, 래스터처리부(132)는 상대적으로 저해상도의 영상을 생성하게 되므로 복잡한 폴리곤에 대해 작업할 필요가 없고 하나 또는 두 개의 폴리곤에 입력받은 고해상도 텍스처를 매핑하여 쉽고 빠르게 저해상도 영상을 생성할 수 있다. 다만, 단순 폴리곤은 반드시 하나 또는 두개로 한정되는 것이 아니고 모바일 단말기가 지원하는 해상도에 따라 달라질 수 있다.
마지막으로, 래스터 처리부(132)는 제2 프레임버퍼(133)에 제2 영상을 생성한다(단계 S240). 래스터 처리부(132)는 입력된 고해상도인 제1 영상의 텍스처를 단순한 폴리곤에 매핑하여 래스터화를 수행하여 제2 프레임 버퍼(133)에 저해상도의 제2 영상을 생성한다.
마지막으로, 그래픽 영상 처리 방법은, 제1 프레임 버퍼와 제2 프레임 버퍼에 생성된 제1 영상과 제2 영상을 각각 대응되는 디스플레이 장치로 출력한다(단계 S300). 영상출력부(140)는 제1 프레임 버퍼(123)와 제2 프레임 버퍼(133)에 생성된 제1 영상과 제2 영상을 각각 대응되는 디스플레이 장치로 출력한다.
영상출력부(140)는 제1 프레임 버퍼(123)에 생성된 고해상도 영상을 외부 대형 디스플레이 장치로 출력하고, 제2 프레임 버퍼(133)에 생성된 저해상도 영상은 모바일 단말기로 출력한다. 이때, 제1 프레임 버퍼(123)를 외부 디스플레이 장치의 출력 버퍼로 지정하여 복사하는 과정 없이 출력할 수 있다.
본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구의 범위에 의하여 나타내어지며, 특허청구의 범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
100: 그래픽 영상 처리 장치 110: 함수 변경부
120: 제1영상생성부 130: 제2영상생성부
121 131: 지오메트리 처리부 122 132: 래스터처리부
123: 제1 프레임버퍼 133: 제2 프레임버퍼
140: 영상출력부

Claims (11)

  1. 3D 그래픽 모델을 렌더링하여 제1 프레임 버퍼에 제1영상을 생성하는 제1영상 생성부; 및
    상기 제1 프레임 버퍼에 생성된 제1영상을 텍스처(Texture)로 입력받아 렌더링하여 상기 제1영상 보다 저해상도인 제2영상을 제2 프레임 버퍼에 생성하는 제2 영상 생성부;를 포함하는 저해상도 그래픽 영상을 고해상도 그래픽 영상으로 실시간 변환하는 그래픽 영상 처리 장치.
  2. 제1항에 있어서,
    그래픽 처리 함수 중 렌더링 타겟(Target) 버퍼 지정 함수의 타겟 버퍼 설정과 뷰포트(Viewport) 함수의 뷰포트 영역 설정 중의 어느 하나 이상을 상기 제1 프레임 버퍼 또는 제2 프레임 버퍼에 대응되는 값으로 변경하는 함수변경부;를 더 포함하는 저해상도 그래픽 영상을 고해상도 그래픽 영상으로 실시간 변환하는 그래픽 영상 처리 장치.
  3. 제1항에 있어서,
    상기 제1 프레임 버퍼와 제2 프레임 버퍼에 생성된 제1 영상과 제2 영상을 각각 대응되는 디스플레이 장치로 출력하는 영상출력부;를 더 포함하는 저해상도 그래픽 영상을 고해상도 그래픽 영상으로 실시간 변환하는 그래픽 영상 처리 장치.
  4. 제1항에 있어서, 상기 3D 그래픽 모델은,
    단일 시점의 영상을 생성하기 위한 3D 그래픽 모델 정보 또는 입체 영상을 생성하기 위한 좌안 및 우안에 대응되는 3D 그래픽 모델 정보를 포함하는 것을 특징으로 하는 저해상도 그래픽 영상을 고해상도 그래픽 영상으로 실시간 변환하는 그래픽 영상 처리 장치.
  5. 제4항에 있어서, 상기 함수변경부는,
    상기 3D 그래픽 모델이 단일 시점의 영상을 생성하기 위한 3D 그래픽 모델 정보를 포함하는 경우, 그래픽 처리 함수 중 렌더링 함수를 제1 렌더링 함수와 제2 렌더링 함수로 변경하는 것을 특징으로 하는 저해상도 그래픽 영상을 고해상도 그래픽 영상으로 실시간 변환하는 입체 영상 처리 장치.
  6. 제5항에 있어서, 상기 제1 영상 생성부는,
    상기 3차원 그래픽 모델에 대해 상기 제1 렌더링 함수와 제2 렌더링 함수를 적용하여 상기 제1 프레임버퍼에 각각 제1 시점 영상 및 제2 시점 영상을 생성하는 것을 특징으로 하는 저해상도 그래픽 영상을 고해상도 그래픽 영상으로 실시간 변환하는 입체 영상 처리 장치.
  7. 3D 그래픽 모델을 렌더링하여 제1 프레임 버퍼에 제1영상을 생성하는 제1영상 생성 단계; 및
    상기 제1 프레임 버퍼에 생성된 제1영상을 텍스처(Texture)로 입력받아 렌더링하여 상기 제1영상 보다 저해상도인 제2영상을 제2 프레임 버퍼에 생성하는 제2 영상 생성 단계;를 포함하는 저해상도 그래픽 영상을 고해상도 그래픽 영상으로 실시간 변환하는 그래픽 영상 처리 방법.
  8. 제7항에 있어서, 제1영상 생성 단계는,
    그래픽 처리 함수 중 렌더링 타겟(Target) 버퍼 지정 함수의 타겟 버퍼 설정과 뷰포트(Viewport) 함수의 뷰포트 영역 설정 중의 어느 하나 이상을 상기 제1 프레임 버퍼에 대응되는 값으로 변경하는 단계;를 포함하는 저해상도 그래픽 영상을 고해상도 그래픽 영상으로 실시간 변환하는 그래픽 영상 처리 방법.
  9. 제7항 또는 제8항에 있어서, 제2영상 생성 단계는,
    그래픽 처리 함수 중 렌더링 타겟(Target) 버퍼 지정 함수의 타겟 버퍼 설정과 뷰포트(Viewport) 함수의 뷰포트 영역 설정 중의 어느 하나 이상을 상기 제2 프레임 버퍼에 대응되는 값으로 변경하는 단계;를 포함하는 저해상도 그래픽 영상을 고해상도 그래픽 영상으로 실시간 변환하는 그래픽 영상 처리 방법.
  10. 제7항에 있어서,
    상기 제1 프레임 버퍼와 제2 프레임 버퍼에 생성된 제1 영상과 제2 영상을 각각 대응되는 디스플레이 장치로 출력하는 영상출력 단계;를 더 포함하는 저해상도 그래픽 영상을 고해상도 그래픽 영상으로 실시간 변환하는 그래픽 영상 처리 방법.
  11. 제7항에 있어서, 제1영상 생성 단계는,
    상기 3D 그래픽 모델이 단일 시점의 영상을 생성하기 위한 3D 그래픽 모델 정보를 포함하는 경우, 그래픽 처리 함수 중 렌더링 함수를 제1 렌더링 함수와 제2 렌더링 함수로 변경하는 단계를 포함하고,
    상기 3차원 그래픽 모델에 대해 상기 제1 렌더링 함수와 제2 렌더링 함수를 적용하여 상기 제1 프레임 버퍼에 각각 제1 시점 영상 및 제2 시점 영상을 생성하는 것을 특징으로 하는 저해상도 그래픽 영상을 고해상도 그래픽 영상으로 실시간 변환하는 입체 영상 처리 방법.
KR1020110057554A 2011-06-14 2011-06-14 저해상도 그래픽 영상을 고해상도 그래픽 영상으로 실시간 변환하는 그래픽 영상 처리 장치 및 방법 KR101227155B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020110057554A KR101227155B1 (ko) 2011-06-14 2011-06-14 저해상도 그래픽 영상을 고해상도 그래픽 영상으로 실시간 변환하는 그래픽 영상 처리 장치 및 방법
PCT/KR2011/006818 WO2012173304A1 (ko) 2011-06-14 2011-09-15 저해상도 그래픽 영상을 고해상도 그래픽 영상으로 실시간 변환하는 그래픽 영상 처리 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110057554A KR101227155B1 (ko) 2011-06-14 2011-06-14 저해상도 그래픽 영상을 고해상도 그래픽 영상으로 실시간 변환하는 그래픽 영상 처리 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20120138185A true KR20120138185A (ko) 2012-12-24
KR101227155B1 KR101227155B1 (ko) 2013-01-29

Family

ID=47357276

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110057554A KR101227155B1 (ko) 2011-06-14 2011-06-14 저해상도 그래픽 영상을 고해상도 그래픽 영상으로 실시간 변환하는 그래픽 영상 처리 장치 및 방법

Country Status (2)

Country Link
KR (1) KR101227155B1 (ko)
WO (1) WO2012173304A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210017960A (ko) * 2019-08-09 2021-02-17 주식회사 볼트홀 응용 프로그램의 스트리밍 영상 제공 장치 및 방법

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102315280B1 (ko) 2014-09-01 2021-10-20 삼성전자 주식회사 렌더링 장치 및 방법
CN116672704A (zh) * 2022-02-28 2023-09-01 荣耀终端有限公司 一种图像处理方法、电子设备及存储介质

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU6766096A (en) * 1995-08-04 1997-03-05 Microsoft Corporation Method and system for rendering graphical objects to image chunks and combining image layers into a display image
US6891535B2 (en) * 2001-03-16 2005-05-10 Mitsubishi Electric Research Labs, Inc. System and method for modeling graphics objects
CA2480081C (en) * 2002-03-22 2007-06-19 Michael F. Deering Scalable high performance 3d graphics
JP2004086643A (ja) 2002-08-28 2004-03-18 Nippon Hoso Kyokai <Nhk> コンピュータグラフィックスのデータ取得装置およびデータ取得方法ならびにコンピュータグラフィックスのデータ取得用プログラム
KR100586029B1 (ko) * 2003-11-22 2006-06-01 한국전자통신연구원 입체 영상 디스플레이 장치 및 그 방법
KR100571832B1 (ko) * 2004-02-18 2006-04-17 삼성전자주식회사 3차원 객체의 물리특성을 고려한 통합 모델링 방법 및 장치
JP2009163588A (ja) 2008-01-09 2009-07-23 Hitachi Ltd 画像信号処理装置、画像高解像度化方法、画像表示装置
JP2009169727A (ja) * 2008-01-17 2009-07-30 Ricoh Co Ltd 画像処理装置、画像処理方法およびプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210017960A (ko) * 2019-08-09 2021-02-17 주식회사 볼트홀 응용 프로그램의 스트리밍 영상 제공 장치 및 방법

Also Published As

Publication number Publication date
WO2012173304A1 (ko) 2012-12-20
KR101227155B1 (ko) 2013-01-29

Similar Documents

Publication Publication Date Title
JP6903183B2 (ja) 曲面ビューポート上に頂点の投影を近似することによる、グラフィックス処理における画面位置に基づく有効解像度の変化
EP3673463B1 (en) Rendering an image from computer graphics using two rendering computing devices
JP6563048B2 (ja) スクリーンの位置によって異なる解像度のターゲットの複数レンダリングのテクスチャ・マッピングの傾き調整
KR101145260B1 (ko) 3d 객체 모델에 텍스쳐를 매핑하는 방법 및 장치
US10776997B2 (en) Rendering an image from computer graphics using two rendering computing devices
JP7096661B2 (ja) キューブマップをテクスチャリングするためのlodを決定する方法、装置、コンピュータプログラム及び記録媒体
US20120229460A1 (en) Method and System for Optimizing Resource Usage in a Graphics Pipeline
US7843463B1 (en) System and method for bump mapping setup
US10217259B2 (en) Method of and apparatus for graphics processing
KR20170040698A (ko) 그래픽스 파이프라인을 수행하는 방법 및 장치
CN114758051A (zh) 一种图像渲染方法及其相关设备
RU2680355C1 (ru) Способ и система удаления невидимых поверхностей трёхмерной сцены
US10192348B2 (en) Method and apparatus for processing texture
KR101227155B1 (ko) 저해상도 그래픽 영상을 고해상도 그래픽 영상으로 실시간 변환하는 그래픽 영상 처리 장치 및 방법
JP7460641B2 (ja) 光強度画像を生成するための装置及び方法
JP2008282171A (ja) グラフィックスプロセッサおよび描画処理方法
KR101227183B1 (ko) 3d 그래픽 모델 입체 렌더링 장치 및 입체 렌더링 방법
KR100848687B1 (ko) 3차원 그래픽 처리 장치 및 그것의 동작 방법
US10453247B1 (en) Vertex shift for rendering 360 stereoscopic content
KR20220130706A (ko) 하이브리드 비닝
KR20160077559A (ko) 실시간 집적 영상 생성 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160122

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170123

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180122

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee