KR20030012889A - 병렬 z-버퍼 구성 및 투명도 - Google Patents

병렬 z-버퍼 구성 및 투명도 Download PDF

Info

Publication number
KR20030012889A
KR20030012889A KR1020027017399A KR20027017399A KR20030012889A KR 20030012889 A KR20030012889 A KR 20030012889A KR 1020027017399 A KR1020027017399 A KR 1020027017399A KR 20027017399 A KR20027017399 A KR 20027017399A KR 20030012889 A KR20030012889 A KR 20030012889A
Authority
KR
South Korea
Prior art keywords
image
image data
color information
merger
data
Prior art date
Application number
KR1020027017399A
Other languages
English (en)
Inventor
이마이마사토시
후지타준이치
히하라다이스케
Original Assignee
가부시키가이샤 소니 컴퓨터 엔터테인먼트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가부시키가이샤 소니 컴퓨터 엔터테인먼트 filed Critical 가부시키가이샤 소니 컴퓨터 엔터테인먼트
Publication of KR20030012889A publication Critical patent/KR20030012889A/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/40Hidden part removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Image Generation (AREA)
  • Image Processing (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

영상 처리 시스템은 반투명 영상이 3D 영상에서 복잡하게 혼합되는 경우일지라도 3D 영상을 정확하게 표현할 수 있다. 복수의 영상 생성기는 영상 데이타에 의해 표현되는 영상의 소정의 참조 부분으로부터의 심도 거리와 이의 색 정보를 포함하는 영상 데이타를 각각 생성한다. 병합기는 예를 들면, 각 영상 데이타에 포함된 심도 거리의 순서로 복수의 수신된 영상 데이타를 분류하는 것과 같이 특정하고, 심도 거리가 상대적으로 긴 첫번재 영상을 표현하는 영상 데이타의 색 정보와 첫번째 영상에 겹치기 방법으로 두번째 영상을 표현하는 영상 데이타의 색 정보를 병합한다.

Description

병렬 Z-버퍼 구성 및 투명도{Parallel Z-buffer architecture and transparency}
3차원 영상을 만드는 3차원 영상 프로세서(이후 간략히 "영상 프로세서"라 한다)에서, 현존 컴퓨터 시스템에서 널리 사용될 수 있는 프레임 버퍼와 z-버퍼가 사용된다. 즉, 이 형태의 영상 프로세서는, 영상 처리부로부터의 기하학 처리에 의해 생성된 그래픽 데이타를 수신하고, 영상 데이타를 생성하기 위해 수신된 그래픽 데이타를 기반으로 개변(interpolation) 연산을 수행하는 개변 연산기와 프레임 버퍼와 z-버퍼를 포함하는 메모리를 갖는다.
프레임 버퍼에서, 처리될 3차원 영상의 R(Red) 값, G(Green) 값 및 B(Blue) 값을 포함하는 색 정보를 포함하는 영상 데이타가 묘화(draw)된다. z-버퍼에서, 특정 시점, 예를 들면 조작자가 보는 디스플레이의 표면에서부터 픽셀의 심도 거리를 나타내는 z-좌표가 저장된다. 개변 연산기는 3차원 영상의 기본 구조 그래프로서 기능하는 폴리곤의 묘화 명령, 3차원 좌표 시스템에서 폴리곤의 정점 좌표 및 각픽셀의 색 정보와 같은 그래픽 데이타를 수신한다. 개변 연산기는 픽셀마다(pixel-by-pixel basis) 심도 거리와 색 정보를 나타내는 영상 데이타를 만들기 위해 심도 거리와 색 정보의 개변 연산을 수행한다. 개변 연산에 의해 얻어진 심도 거리는 z-버퍼의 소정의 주소에 저장되고, 얻어진 색 정보는 프레임 버퍼의 소정의 주소에 각각 저장된다.
3차원 영상이 서로 겹치는 경우에, z-버퍼 알고리즘에 의해 조정된다. z-버퍼 알고리즘은 z-버퍼를 사용하여 수행된 감춰진 표면 처리, 즉, 다른 영상에 의해 가려진 위치에 존재하는 겹쳐진 부분에서의 영상을 지우는 처리이다. z-버퍼 알고리즘은 묘화될 복수의 영상의 인접한 z-좌표를 픽셀마다 비교하고, 디스플레이 표면에 대해 영상의 전후 관계를 판단한다. 다음으로, 심도 거리가 보다 짧으면, 즉, 영상이 시점에 대해 가까운 위치에 위치되면, 영상이 묘화되고, 반대로, 영상이 시점보다 먼 위치에 위치하면, 영상은 묘화되지 않는다. 이에 의해, 가려진 위치에 위치된 영상의 겹쳐진 부분이 지워진다.
복수의 영상 프로세서를 사용하여 복합 영상 처리를 수행하는 영상 처리 시스템이 다음에서 설명될 것이다.
이 영상 처리 시스템은 네 개의 영상 프로세서와 z-비교기를 갖는다. 각 영상 프로세서는 프레임 버퍼에서 픽셀의 색 정보를 포함하는 영상 데이타를 묘화하고, 이때의 영상을 형성하는 픽셀의 z-좌표를 z-버퍼에 쓴다.
z-비교기는 각 영상 프로세서의 프레임 버퍼에 쓰여진 영상 데이타와 z-버퍼에 쓰여진 z-좌표를 기반으로 감춰진 표면 처리를 수행하고 결합된 영상을 만든다.더 상세하게는, z-비교기는 각 영상 프로세서로부터 영상 데이타와 z-좌표를 판독한다. 다음으로, 모든 판독된 z-좌표의 최소 z-좌표를 갖는 영상 데이타가 처리된 3차원 영상으로서 사용된다. 한편, 시점에서 가장 가까운 영상 데이타를 사용하는 영상이 최상위 측에 위치되고, 겹쳐진 부분의 낮은 측에 위치된 영상의 영상 데이타가 감춰진 표면 지우기로 처리되어, 겹쳐진 부분을 갖는 결합된 영상이 만들어진다.
예를 들면, 배경을 묘화하는 영상 프로세서에 의해 생성된 영상 데이타, 자동차를 묘화하는 영상 프로세서에 의해 생성된 영상 데이타, 건물을 묘화하는 영상 프로세서에 의해 생성된 영상 데이타 및 사람을 묘화하는 영상 프로세서에 의해 생성된 영상 데이타가 각각 캡쳐(capture)된다. 이후, 겹치는 부분이 발생하는 경우, 겹치는 부분의 뒤 표면에 위치된 영상의 영상 데이타는 감춰진 표면을 위해 z-좌표를 기반으로 z-비교기에 의해 지워진다.
따라서, 복잡한 3차원 영상의 경우일지라도, 이와 같은 처리가 단지 하나의 영상 프로세서에 의해서 수행되는 경우와 비교하여, 분할 방법으로 복수의 영상 프로세서를 이용하여 영상 데이타를 처리하여 고속으로 정확한 영상 처리가 수행될 수 있다.
종래의 영상 처리 시스템은 문헌 "Computer Graphics Principles and Practice"에서 "Image-Composition-Architectures"로서 소개된다.
전술된 종래의 영상 처리 시스템에서, 복수의 영상 프로세서로부터의 출력 사이의 구별은 기본적으로 간단한 감춰진 표면 처리에서의 결과를 기반으로 z-좌표의 크기를 기반으로 만들어진다. 그러므로, 복수의 겹치는 3차원 영상 사이에서, z-좌표가 상대적으로 작은 영상이 반투명(semitransparent)인 경우에도, 감춰진 표면 부분은 지워지고, 이는 반투명 3차원 영상이 정확하게 표현될 수 없는 문제를 야기한다.
본 발명의 목적은 3차원 영상이 복잡한 방법으로 반투명 영상을 포함할지라도 3차원 영상을 정확하게 표현할 수 있는 향상된 영상 처리 시스템을 제공하는 것이다.
본 발명은 각각 심도(depth) 정보와 색 정보를 포함하는 복수의 영상 데이타를 기초로 3차원 영상을 만드는 3차원 영상 처리 시스템과 3차원 영상 처리 방법과 관계가 있다.
도 1은 본 발명에 따른 영상 처리 시스템의 첫번재 실시형태를 도시한 시스템 구조도이다.
도 2는 영상 생성기의 구조도이다.
도 3은 본 발명에 따른 병합기의 구조 예를 도시한 블럭도이다.
도 4는 전단(prior stage)의 장치로 공급된 외부 동조 신호와 내부 동조 신호의 타이밍 생성을 설명하는 도면으로, 4a는 영상 생성기와 병합기를 설명하는 구조도이고, 4b는 차단(later stage)의 병합기의 내부 동조 신호를 도시하고, 4c는 차단의 병합기로부터 출력된 외부 동조 신호를 도시하고, 4d는 전단의 병합기의 내부 동조 신호를 도시하고, 4e는 전단의 병합기로부터 출력된 외부 동조 신호를 도시한다.
도 5는 본 발명에 따른 병합 블럭의 본체의 구조예를 도시한 블럭도이다.
도 6는 본 발명에 따른 영상 처리 시스템을 사용하는 영상 처리의 단계를 도시한다.
도 7은 본 발명에 따른 영상 처리 시스템의 다른 실시형태를 도시하는 시스템 구성도이다.
도 8은 본 발명에 따른 영상 처리 시스템의 다른 실시형태를 도시하는 시스템 구성도이다.
도 9는 본 발명에 따른 영상 처리 시스템의 다른 실시형태를 도시하는 시스템 구성도이다.
도 10은 본 발명에 따른 영상 처리 시스템의 다른 실시형태를 도시하는 시스템 구성도이다.
도 11은 네트워크를 통한 영상 처리 시스템의 실행을 도시하는 구성도이다.
도 12는 구성 요소들 사이에 송신/수신된 데이타의 예를 도시한다.
도 13은 영상 처리 시스템을 형성하는 구성 요소를 결정하는 단계를 도시한다.
도 14는 네트워크를 통한 영상 처리 시스템의 실행을 도시하는 다른 구성도이다.
도 15는 구성 요소들 사이에 송신/수신된 데이타의 예를 도시한다.
본 발명은 영상 처리 시스템, 영상 처리 장치, 영상 처리 방법 및 컴퓨터 프로그램을 제공한다.
본 발명의 한 형태에 따르면, 소정의 참조 부분으로부터, 영상 데이타에 의해 표현될 영상의 심도 거리와 영상의 색 정보를 포함하는 영상 데이타를 각각 생성하는 복수의 영상 생성기; 그리고 복수의 영상 생성기의 각각으로부터 영상 데이타를 수신하는 병합기(merger)를 포함하는 영상 처리 시스템이 제공되며, 병합기는 각 영상 데이타에 포함된 심도 거리의 순서대로 복수의 수신된 영상 데이타를 특정하고, 심도 거리가 상대적으로 긴 첫번째 영상을 표현하는 영상 데이타의 색 정보와 첫번째 영상과 겹치기 방법으로 두번째 영상을 표현하는 영상 데이타의 색 정보를 병합한다.
심도 거리는 소정의 참조 부분으로부터의 픽셀 심도 거리일 수도 있고, 색 정보는 픽셀의 색 정보일 수도 있으며, 병합기는 픽셀의 심도 거리의 순서대로 픽셀을 특정하고 픽셀의 색 정보를 병합하도록 구성될 수도 있다.
각 영상 데이타는 복수 픽셀의 심도 거리와 픽셀의 색 정보를 포함할 수도 있으며, 병합기는 픽셀의 심도 거리의 순서로 동일한 2차원 좌표를 갖는 픽셀을 특정하고 동일한 2차원 좌표를 갖는 픽셀의 색 정보를 병합하도록 구성될 수도 있다.
병합기가 가장 긴 심도 거리를 갖는 영상 데이타의 색 정보와 두번째로 긴 심도 거리를 갖는 영상 데이타의 색 정보를 병합하고, 추가로 병합 결과와 세번째로 긴 심도 거리를 갖는 영상 데이타의 색 정보를 병합하도록 구성될 수도 있다.
병합기가 가장 긴 심도 거리를 갖는 영상 데이타의 색 정보와 배경을 표현하는 배경 영상 데이타의 색 정보를 병합하도록 구성될 수도 있다.
가장 긴 심도 거리를 갖는 영상 데이타가 배경을 표현하는 배경 영상 데이타가 되도록 구성될 수도 있다.
색 정보가 3원색을 표현하는 휘도 값(luminance)을 포함하도록 구성될 수도 있다.
영상 처리 시스템이 영상 처리 시스템의 영상 처리 타이밍(timing)에 복수의 영상 생성기로부터 영상 데이타를 캡쳐하는 타이밍을 동조하기 위한 동조부를 추가로 포함하도록 구성될 수도 있다.
복수의 영상 생성기, 병합기 및 동조부가 부분 또는 전체적으로 논리 회로 또는 반도체 메모리를 포함하고, 논리 회로와 반도체 메모리가 반도체 칩에 탑재되도록 구성될 수도 있다.
본 발명의 다른 형태에 따르면, 각각이 영상 데이타에 의해 표현되는 영상의소정의 참조 부분으로부터의 심도 거리와 영상의 색 정보를 포함하는 영상 데이타를 생성하는 복수의 영상 생성기로부터 영상 데이타를 캡쳐하는 데이타 캡쳐부; 및 각 영상 데이타에 포함된 심도 거리의 순서로 복수의 캡쳐된 영상 데이타를 특정하고 심도 거리가 상대적으로 긴 첫번째 영상을 표현하는 영상 데이타의 색 정보와 첫번째 영상에 겹치기 방법으로 두번째 영상을 표현하는 영상 데이타의 색 정보를 병합하는 색 정보 병합기를 포함하는 영상 처리 장치가 제공되며, 여기서 데이타 캡쳐부와 색 정보 병합기는 반도체 칩에 탑재된다.
영상 처리 장치는 영상 처리 장치의 영상 처리 타이밍에 복수의 영상 생성기로부터 영상 데이타를 캡쳐하는 타이밍을 동조하는 동조부를 추가로 포함하도록 구성될 수도 있다.
본 발명의 다른 형태에 따르면, 영상 데이타에 의해 표현되는 영상의 색 정보를 포함하는 영상 데이타를 저장하는 프레임 버퍼; 소정의 참조 부분으로부터 영상의 심도 거리를 저장하는 z-버퍼; 및 병합기와 통신하는 통신부를 포함하는 영상 처리 장치가 제공되며, 병합기는 각 영상 데이타에 포함된 심도 거리의 순서로 복수의 수신된 영상 데이타를 특정하고 심도 거리가 상대적으로 긴 첫번째 영상을 표현하는 영상 데이타의 색 정보와 첫번째 영상과 겹치는 방법으로 두번째 영상을 표현하는 영상 데이타의 색 정보를 병합하기 위하여 주(subject) 영상 처리 장치를 포함하는 복수의 영상 처리 장치 각각으로부터 색 정보와 심도 거리를 포함하는 영상 데이타를 수신하며, 여기서 프레임 버퍼, z-버퍼 및 통신부는 반도체 칩에 탑재된다.
본 발명의 다른 형태에 따르면, 복수의 영상 생성기와 복수의 영상 생성기에 연결된 병합기를 포함하는 영상 처리 시스템에서 실행되는 영상 처리 방법이 제공되는데, 이 방법은: 복수의 영상 생성기가 영상 데이타에 의해 표현되는 영상의 소정의 참조 부분으로부터의 심도 거리와 영상의 색 정보를 각각 포함하는 영상 데이타를 생성하도록 하는 단계; 및 병합기가 각 영상 데이타에 포함된 심도 거리의 순서로 복수의 캡쳐된 영상 데이타를 특정하고 심도 거리가 상대적으로 긴 첫번째 영상을 표현하는 영상 데이타의 색 정보와 첫번째 영상에 겹치기 방법으로 두번째 영상을 표현하는 영상 데이타의 색 정보를 병합하기 위하여 소정의 동조 타이밍에 각각의 복수의 영상 생성기로부터 영상 데이타를 캡쳐하도록 하는 단계를 포함한다.
본 발명의 다른 형태에 따르면, 영상 데이타에 의해 표현되는 영상의 소정의 참조 부분으로부터의 심도 거리와 영상의 색 정보를 포함하는 영상 데이타를 각각 생성하는 복수의 영상 생성기; 및 각각의 복수의 영상 생성기로부터 영상 데이타를 수신하는 병합기를 포함하는 영상 처리 시스템으로서 동작되는 컴퓨터를 동작시키는 컴퓨터 프로그램이 제공되는데, 여기서 병합기는 각 영상 데이타에 포함된 심도 거리의 순서로 복수의 수신된 영상 데이타를 특정하고 심도 거리가 상대적으로 긴 첫번째 영상을 표현하는 영상 데이타의 색 정보와 첫번째 영상에 겹치기 방법으로 두번재 영상을 표현하는 영상 데이타의 색 정보를 병합한다.
본 발명의 다른 형태에 따르면, 영상 데이타에 의해 표현되는 영상의 소정의 참조 부분으로부터의 심도 거리와 영상의 색 정보를 포함하는 영상 데이타를 각각이 생성하는 복수의 영상 생성기의 각각으로부터 영상 데이타를 네트워크를 통해캡쳐하는 데이타 캡쳐부; 및 각 영상 데이타에 포함된 심도 거리의 순서로 복수의 캡쳐된 영상 데이타를 특정하고 심도 거리가 상대적으로 긴 첫번째 영상 데이타를 표현하는 영상 데이타의색 정보와 첫번째 영상에 겹치기 방법으로 두번재 영상을 표현하는 영상 데이타의 색 정보를 병합하는 색 정보 병합기를 포함하는 영상 처리 시스템이 제공된다.
본 발명의 다른 형태에 따르면, 영상 데이타에 의해 표현되는 영상의 소정의 참조 부분으로부터의 심도 거리와 영상의 색 정보를 포함하는 영상 데이타를 포함하는 영상 데이타를 각각이 생성하는 복수의 영상 생성기; 복수의 영상 생성기에 의해 생성된 영상 데이타를 캡쳐하고 캡쳐된 영상 데이타를 병합하는 복수의 병합기; 및 복수의 영상 생성기와 복수의 병합기로부터의 처리를 위해 영상 생성기와 적어도 하나의 병합기를 선택하는 제어부를 포함하는 영상 처리 시스템이 제공되는데, 여기서 복수의 영상 생성기, 복수의 병합기 및 제어기는 네트워크를 통해 서로 연결되고, 복수의 병합기 중 적어도 하나가 각 영상 데이타에 포함된 심도 거리의 순서로 복수의 캡쳐된 영상 데이타를 특정하고 심도 거리가 상대적으로 긴 첫번재 영상을 표현하는 영상 데이타의 색 정보와 첫번재 영상에 겹치기 방법으로 두번째 영상을 표현하는 영상 데이타의 색 정보를 병합하기 위하여 선택된 영상 생성기로부터 영상 데이타를 캡쳐한다.
선택된 영상 생성기의 적어도 하나가 네트워크가 다른 네트워크를 통해 연결된 다른 영상 생성기를 갖고, 또한 영상 데이타가 다른 영상 생성기에 의해 생성되도록 구성될 수도 있다.
영상 데이타가 영상 데이타를 캡쳐하는 타겟 병합기를 특정하는 데이타를 포함하도록 구성될 수도 있다.
영상 처리 시스템이 저장된 데이타에 의해 특정된 영상 생성기에 의해 생성된 영상 데이타를 캡쳐하고 저장된 데이타에 의해 특정된 적어도 하나의 병합기로 캡쳐된 영상 데이타를 전송하기 위하여 영상 생성기와 제어기에 의해 선택된 적어도 하나의 병합기를 특정하는 데이타를 저장하는 스위치를 추가로 포함하도록 구성될 수도 있다.
본 발명의 이들 목적과 다른 목적 그리고 이점이 다음의 상세한 설명을 읽고 도면을 참조하여 보다 명확해질 것이다.
본 발명의 영상 처리 시스템이 게임 캐릭터와 같은 복잡한 영상 성분으로 구성된 3차원 모델의 영상 처리를 수행하는 시스템에 적용되는 본 발명의 실시형태가 다음에서 설명될 것이다.
<전체 구조>
도 1은 본 발명의 실시형태에 따른 영상 처리 시스템의 전체 구조도이다.
영상 처리 시스템(100)은 16개의 영상 생성기(101~116)와 5개의 병합기(117~121)를 포함한다.
각 영상 생성기(101~116)와 병합기(117~121)는 각각 논리 회로와 반도체 메모리를 갖고, 논리 회로와 반도체 메모리는 하나의 반도체 칩에 탑재된다. 영상 생성기의 수와 병합기의 수는 처리될 3차원 영상의 종류, 3차원 영상의 수 및 처리 모드에 따라 적절하게 결정될 수 있다.
각각의 영상 생성기(101~116)는 입체 3D 모델을 형성하는 각 폴리곤의 각 정점의 3차원 좌표(x,y,z), 각 폴리곤의 텍스쳐(texture)의 동차(homogenous) 좌표(s,t) 및 기하 처리 사용에 의한 항(term: q)를 포함하는 그래픽 데이타를 생성한다. 또한 영상 생성기는 생성된 그래픽 데이타를 기반으로 캐릭터 렌더링(rendering) 처리를 수행한다. 또한, 다음 단에 연결된 병합기(117~120)로부터의 외부 동조 신호에서, 영상 생성기(101~116)는 각각 프레임 버퍼로부터 다음 단의 병합기(117~120)로 렌더링 처리의 결과인 색 정보(R-값, G-값, B-값, A-값)를 출력한다. 또한, 영상 생성기(101~116)는 z-버퍼로부터 다음 단의 병합기(117~120)로, 특정 시점, 예를 들면 조작자가 보는 디스플레이의 표면으로부터 픽셀의 심도 거리를 각각 나타내는 z-좌표를 출력한다. 이 때, 영상 생성기(101~116)는 또한 병합기(117~120)가 동시에 색 정보(R-값, G-값, B-값, A-값)와 z-좌표를 캡쳐하도록 허용하는 쓰기 가능 신호(WE)를 출력한다.
프레임 버퍼와 z-버퍼는 종래 기술에서 알려진 것과 동일하고, R-값, G-값 및 B-값은 각각 적색, 녹색 및 청색의 휘도 값이고, A-값은 반투명(α)의 정도를 나타내는 수치 값이다.
각각의 병합기(117~121)가 대응하는 영상 생성기로부터 출력 데이타를 수신하거나 다른 병합기가 데이타 캡쳐 메카니즘을 통해 수신하며, 특히 각각의 병합기는 각 픽셀의 2차원 위치를 나타내는 (x,y) 좌표, 색 정보(R-값, G-값, B-값, A-값) 및 z-좌표(z)를 포함하는 영상 데이타를 수신한다. 다음으로, z-버퍼 알고리즘에 따른 z-좌표(z), 색 정보(R-값, G-값, B-값, A-값) 및 z-좌표(z)를 사용하여 특정된 영상 데이타가 시점으로부터 더 먼 z-좌표(z)를 갖는 영상 데이타의 순서로 혼합된다. 이 처리를 통해, 반투명 영상을 포함하는 복잡한 3차원 영상을 표현하는 결합된 영상 데이타가 병합기(121)에서 만들어진다.
각각의 영상 생성기(101~116)는 다음 단의 병합기(117~120)의 어느 하나에 연결되고, 병합기는 병합기(121)에 연결된다. 그리하여, 병합기들 사이에 다단(multistage) 연결을 만들 수 있다.
이 실시형태에서, 영상 생성기(101~116)는 네 개의 그룹으로 나누어지고, 하나의 병합기가 각 그룹에 제공된다. 즉, 영상 생성기(101~104)가 병합기(117)에 연결되고, 영상 생성기(105~108)가 병합기(118)에 연결된다. 영상 생성기(109~112)가 병합기(119)에 연결되고, 영상 생성기(113~116)가 병합기(120)에 연결된다. 각 영상 생성기(113~116)와 병합기(117~121)에서, 처리 동작의 타이밍의 동조는 후술되는 동조 신호에 의해 얻어질 수 있다.
영상 생성기(101~116)와 병합기(117~121)의 연결에서, 이들의 특정 구조와 기능이 후술될 것이다.
<영상 생성기>
영상 생성기의 전체 구조가 도 2에 도시된다. 모든 영상 생성기(101~116)가 동일한 구성 요소를 갖기 때문에, 각 영상 생성기는 편의상 도 2에서 참조 번호(200)에 의해 일정하게 표현된다.
영상 생성기(200)는 그래픽 프로세서(201), 그래픽 메모리(202), I/O 인터페이스 회로(203) 및 렌더링 회로(204)가 버스(205)에 연결되는 것과 같은 방법으로 구성된다.
그래픽 프로세서(201)는 어플리케이션 등의 진행에 따른 그래픽을 위한 원래 데이타를 저장하는 그래픽 메모리(202)로부터 그래픽을 위해 필요한 원래 데이타를 판독한다. 그런 다음, 그래픽 프로세서(201)는 그래픽 데이타를 생성하기 위한 그래픽에 대해 원래 데이타를 판독하기 위해 좌표 변환, 클리핑(clipping) 처리, 라이팅(lighting) 처리 등과 같은 기하 처리를 수행한다. 이후, 그래픽 프로세서(201)는 이 그래픽 데이타를 버스(205)를 경유하여 렌더링 회로(204)로 공급한다.
I/O 인터페이스 회로(203)는 외부 동작 유닛(도시되지 않음)으로부터 캐릭터 등과 같은 3D 모델의 움직임을 제어하는 제어 신호를 캡쳐하는 기능 또는 외부 영상 처리부에 의해 생성된 그래픽 데이타를 캡쳐하는 기능을 갖는다. 제어 신호는 렌더링 회로(204)를 제어하기 위해 사용되도록 그래픽 프로세서(201)로 보내진다.
그래픽 데이타는 예를 들면, 16비트의 x좌표와 y좌표, 24비트의 z좌표, 각각 12(=8+4)비트인 R-값, G-값, B-값, 각각 32비트를 갖는 s, t, q 텍스쳐 좌표를 포함하는 부동-소수(floating-point) 값으로 구성된다.
렌더링 회로(204)는 맵핑 프로세서(2041), 메모리 인터페이스(memory I/F) 회로(2046), CRT 제어기(2047) 및 DRAM(2049: Dynamic Random Access Memory)를 갖는다.
이 실시형태의 렌더링 회로(204)는 맵핑 프로세서(2041) 등과 같은 논리 회로와 영상 데이타, 텍스쳐 데이타 등을 저장하는 DRAM(2049)이 하나의 반도체 칩에 탑재되는 것과 같은 방법으로 형성된다.
맵핑 프로세서(2041)는 버스(205)를 경유하여 보내진 그래픽 데이타에 대해 선형 개변을 수행한다. 선형 개변은 단지 색 정보(R-값, G-값, B-값, A-값)와 폴리곤의 각 정점에 관한 z-좌표를 나타내는 그래픽 데이타로부터 폴리곤의 표면의 각 픽셀의 색 정보(R-값, G-값, B-값, A-값)와 z-좌표를 얻을 수 있도록 한다. 또한, 맵핑 프로세서(2041)는 그래픽 데이타에 포함된 동차 좌표(s,t)와 동차항(q)을 사용하여 텍스쳐 좌표를 계산하고, 유도된 텍스쳐 좌표에 대응하는 텍스쳐 데이타를 사용하여 텍스쳐 맵핑을 수행한다. 이는 보다 정확한 디스플레이 영상을 얻는 것이 가능하도록 한다.
이 방법에서, 각 픽셀의 2차원 위치를 나타내는 (x,y) 좌표와 이들의 색 정보와 z-좌표를 포함하는 (x,y,z,R,G,B,A)에 의해 표현되는 픽셀 데이타가 만들어진다.
메모리 I/F 회로(2046)는 렌더링 회로(204)에 제공된 다른 회로로부터의 요청에 대한 응답으로 DRAM(2049)에 대한 억세스(기록/판독)를 얻는다. 억세스의 기록 채널과 판독 채널은 독립적으로 구성된다. 즉, 기록에서, 기록 주소 ADRW와 기록 데이타 DTW가 기록 채널을 경유하여 쓰여지고, 판독에서, 판독 데이타 DTR이 판독 채널을 경유하여 읽혀진다.
메모리 I/F 회로(2046)는 이 실시형태에서 소정의 인터리브(interleave) 주소를 기반으로 최대치에서 16픽셀의 유닛에서 DRAM(2049)에 대한 주소를 얻는다.
CRT 제어기(2047)는 다음 단에 연결된 병합기로부터 공급된 외부 동조 신호와 동조하여 메모리 I/F 회로(2046)를 경유하여 DRAM(2049)으로부터 영상 데이타, 즉, 프레임 버퍼(2049b)로부터의 픽셀의 색 정보(R-값, G-값, B-값, A-값)와 z-버퍼(2049c)로부터 픽셀의 z-좌표를 판독하기 위한 요청을 만든다. 다음으로, CRT 제어기(2047)는 픽셀의 판독된 색 정보(R-값, G-값, B-값, A-값)와 z-좌표와 추가로 포함하는 픽셀의 (x,y) 좌표와, 다음 단의 병합기로 기록 신호로서 기록 가능 신호(WE)를 포함하는 영상 데이타를 출력한다.
하나의 억세스 마다 DRAM(2049)으로부터 판독되고 기록 가능 신호(WE)로 병합기로 출력된 색 정보와 z-좌표의 픽셀의 수는 이 실시형태에서 최대 16이고, 예를 들면, 실행되는 어플리케이션으로부터의 요청에 따라 변한다. 각 억세스와 출력에 대한 픽셀의 수가 1을 포함하는 어떤 가능한 값을 취할 수 있을지라도, 다음의설명에서 각 억세스와 출력에 대한 픽셀의 수는 설명의 간결함을 위하여 16인 것으로 가정한다. 또한, 각 억세스에 대한 픽셀의 (x,y) 좌표는 주 제어기(도시되지 않음)에 의해 결정되고, 병합기(121)로부터 보내진 외부 동조 신호에 대한 응답으로 각 영상 생성기(101~116)의 CRT 제어기(2047)로 통지된다. 그리하여, 각 억세스에 대한 픽셀의 (x,y) 좌표는 영상 생성기(101~116) 사이에서 동일하다.
DRAM(2049)은 프레임 버퍼(2049b)에 텍스쳐 데이타를 추가로 저장한다.
<병합기>
병합기의 전체 구조가 도 3에 도시된다. 모든 병합기(117~121)가 동일한 구성 요소를 갖기 때문에, 각 병합기는 편의상 도 3에서 참조 번호(300)에 의해 동일하게 표현된다.
병합기(300)는 FIFO(301~304), 동조 신호 생성 회로(305) 및 병합 블럭(306)으로 구성된다.
FIFO(301~304)는 전단에서 제공된 네 개의 영상 생성기에 하나씩 대응하고, 각각이 대응하는 영상 생성기로부터 출력된 영상 데이타, 즉, 16 픽셀의 색 정보(R-값, G-값, B-값, A-값), (x,y) 좌표 및 z-좌표를 임시로 저장한다. 각각의 FIFO(301~304)에서, 이와 같은 영상 데이타는 대응하는 영상 생성기로부터의 기록 가능 신호(WE)에 동조하여 쓰여진다. 각각의 FIFO(301~304)에서, 이와 같은 영상 데이타는 대응하는 영상 생성기로부터 기록 가능 신호(WE)에 동조하여 기록된다. FIFO(301~304)에 기록된 영상 데이타는 동조 신호 생성 회로(305)에 의해 생성된 내부 동조 신호(Vsync)와 함께 동조하여 병합 블럭(306)으로 출력된다. 영상 데이타가 내부 동조 신호(Vsync)와 함께 동조하여 FIFO(301~304)로부터 출력되기 때문에, 병합기(300)로의 영상 데이타 입력 타이밍이 소정의 범위로 자유롭게 설정될 수 있다. 따라서, 영상 생성기 사이에서 완벽한 동조 동작이 반드시 필요로 하지 않는다. 병합기(300)에서, 각 FIFO(301~304)의 출력은 내부 동조 신호(Vsync)에 의해 실질적으로 완벽하게 동조된다. 그리하여, 각 FIFO(301~304)의 출력은 병합 블럭(306)에 저장될 수 있고 색 정보의 블렌딩(α블렌딩)이 시점으로부터 보다 먼 위치의 순서로 수행된다. 이는 뒤에서 자세히 설명되는 FIFO(301~304)로부터 출력된 네 개의 영상 데이타를 병합하는 것을 쉽게 만든다.
위에서 네 개의 FIFO를 사용하는 실시예가 설명되었지만, 이는 하나의 병합기게 연결되는 영상 생성기의 수가 네 개이기 때문이다. FIFO의 수는 네 개에 한정되지 않고 연결되는 영상 생성기의 수에 대응하여 설정될 수도 있다. 또한, 물리적으로 다른 메모리가 FIFO(301~304)로서 사용될 수도 있다. 또한, 하나의 메모리가 복수의 영역으로 논리적으로 분할될 수도 있다.
동조 신호 생성 회로(305)로부터, 병합기(300)의 다음 단, 예를 들면 디스플레이로부터 입력된 외부 동조 신호(SYNCIN)가 영상 생성기 또는 같은 타이밍에 전단의 병합기로 공급된다.
병합기로부터 전단 장치로 공급된 외부 동조 신호(SYNCIN)의 생성 타이밍과 병합기의 내부 동조 신호(Vsync)의 생성 타이밍이 도 4를 참조로 설명될 것이다.
동조 신호 생성 회로(305)는 외부 동조 신호(SYNCIN)와 내부 동조 신호(Vsync)를 생성한다. 여기에, 도 4(a)에 도시된 바와 같이, 병합기(121), 병합기(117) 및 영상 생성기(101)가 3단 방법으로 서로 연결된 실시예가 설명된다.
병합기(121)의 내부 동조 신호는 Vsync2로 표현되고 이의 외부 동조 신호는 SYNCIN2로 표현되는 것으로 가정한다. 또한, 병합기(117)의 내부 동조 신호는 Vsync1으로 표현되고 이의 외부 동조 신호는 SYNCIN1으로 표현되는 것으로 가정한다.
도 4(b)~(e)에 도시된 바와 같이, 외부 동조 신호(SYNCIN2, SYNCIN1)의 생성 타이밍은 병합기의 내부 동조 신호(Vsync2, Vsync1)의 생성 타이밍과 비교하여 소정의 주기만큼 빠르다. 다단 연결을 성취하기 위하여, 병합기의 내부 동조 신호는 다음 단의 병합기로부터 공급된 외부 동조 신호를 따른다. 빠른 주기는 영상 생성기가 외부 동조 신호(SYNCIN)를 수신한 후에 실제 동조 동작이 시작하기 전에 경과하는 주기동안 허용된다. FIFO(301~304)는 병합기를 고려하여 배열된다. 그리하여, 시간에서 약간의 변동이 발생하는 경우에도 문제가 생기지 않는다.
빠른 주기는 FIFO에 영상 데이타를 기록하는 것이 FIFO로부터 영상 데이타를 렌더링하기 전에 종료하는 것과 같은 방법으로 설정된다. 이 빠른 주기는 동조 신호가 고정 사이클로 반복되기 때문에 카운터와 같은 시퀀스(sequence) 회로에 의해 쉽게 이행될 수 있다.
또한, 카운터와 같은 시퀀스 회로는 다음 단으로부터의 동조 신호에 의해 리셋(reset)될 수도 있어서, 내부 동조 신호가 다음 단의 병합기로부터 공급된 외부 동조 신호를 따르도록 만들 수 있다.
병합 블럭(306)은 네 개의 영상 데이타에 포함된 z-좌표(z)를 사용하여 내부동조 신호(Vsync)와 동조하여 FIFO(301~304)로부터 공급된 네 개의 영상 데이타를 정렬하고, 시점으로부터 보다 먼 위치의 순서로 A-값을 사용하여 색 정보(R-값, G-값, B-값, A-값)의 블렌딩, 즉 α블렌딩을 수행하고, 소정의 타이밍에서 다음 단의 병합기(121)로 결과를 출력한다.
도 5는 병합 블럭(306)의 주 구조를 도시한 블럭도이다. 병합 블럭(306)은 z-분류기(3061)와 블렌더(3062)를 갖는다.
z-분류기(3061)는 각 FIFO(301~304)로부터의 16 픽셀의 색 정보(R-값, G-값, B-값, A-값), (x,y) 좌표 및 z-좌표를 수신한다. 다음으로, z-분류기(3061)는 동일한 (x,y) 좌표를 갖는 네 개의 픽셀을 선택하고 값의 크기로 선택된 픽셀의 z-좌표를 비교한다. 16 픽셀 사이의 (x,y) 좌표의 순서 선택은 이 실시형태에서 미리 결정된다. 도 5에 도시된 바와 같이, FIFO(301~304)로부터의 픽셀의 색 정보와 z-좌표는 각각 (R1, G1, B1, A1)~(R4, G4, B4, A4)와 z1~z4로 표현되는 것으로 가정한다. z1~z4 사이를 비교한 후에, z-분류기(3061)는 z-좌표(z)가 감소하는 순서, 즉, 비교 결과를 기반으로 시점으로부터 보다 먼 픽셀의 위치의 순서로 4 픽셀을 분류하고, 블렌더(3062)로 시점으로부터 보다 먼 픽셀의 위치의 순서로 색 정보를 공급한다. 도 5의 실시예에서, z1>z4>z3>z2의 관계가 수립된 것으로 가정한다.
블렌더(3062)는 네 개의 블렌딩 프로세서(3062-1 ~ 3062-4)를 갖는다. 블렌딩 프로세서의 수는 병합되는 색 정보의 수에 의해 적절하게 결정될 수도 있다.
블렌딩 프로세서(3062-1)는 α블렌드 처리를 수행하기 위해 예를 들면, 방정식 (1)~(3)과 같은 계산을 수행한다. 이 경우에, 계산은 분류 결과인 시점으로부터보다 먼 위치에 위치된 픽셀의 색 정보(R1, G1, B1, A1)와 레지스터(도시되지 않음)에 저장되고 디스플레이에 의해 생성된 배경과 관계된 색 정보(Rb, Gb, Bb, Ab)를 사용하여 수행된다. 다음으로, 블렌딩 프로세서(3062-1)가 결과 색 정보(R'값, G'값, B'값, A'값)를 블렌딩 프로세서(3062-2)로 공급한다.
R' = R1 × A1 + (1 - A1) × Rb...(1)
G' = G1 × A1 + (1 - A1) × Gb...(2)
B' = B1 × A1 + (1 - A1) × Bb...(3)
A'값은 Ab와 A1의 합계에 의해 얻어진다.
블렌딩 프로세서(3062-2)는 α블렌드 처리를 수행하기 위해 예를 들면, 방정식 (4)~(6)과 같은 계산을 수행한다. 이 경우에, 계산은 분류 결과인 시점으로부터 두번째로 먼 위치에 위치된 픽셀의 색 정보(R4, G4, B4, A4)와 블렌딩 프로세서(3062-1)의 계산 결과(R', G', B', A')를 사용하여 수행된다. 다음으로, 블렌딩 프로세서(3062-2)는 결과 색 정보(R"값, G"값, B"값, A"값)를 블렌딩 프로세서(3062-3)으로 공급한다.
R" = R4 × A4 + (1 - A4) × R'...(4)
G" = G4 × A4 + (1 - A4) × G'...(5)
B" = B4 × A4 + (1 - A4) × B'...(6)
A"은 A'과 A4의 합계에 의해 얻어진다.
블렌딩 프로세서(3062-3)는 α블렌드 처리를 수행하기 위해 예를 들면, 방정식 (7)~(9)와 같은 계산을 수행한다. 이 경우에, 계산은 분류 결과인 시점으로부터세번째로 먼 위치에 위치된 픽셀의 색 정보(R3, G3, B3, A3)와 블렌딩 프로세서(3062-2)의 계산 결과(R", G", B", A")를 사용하여 수행된다. 다음으로, 블렌딩 프로세서(3062-3)는 결과 색 정보(R"'값, G"'값, B"'값, A"'값)를 블렌딩 프로세서(3062-4)으로 공급한다.
R"' = R3 × A3 + (1 - A3) × R"...(7)
G"' = G3 × A3 + (1 - A3) × G"...(8)
B"' = B3 × A3 + (1 - A3) × B"...(9)
A"'은 A"과 A3의 합계에 의해 얻어진다.
블렌딩 프로세서(3062-4)는 α블렌드 처리를 수행하기 위해 예를 들면, 방정식 (10)~(12)와 같은 계산을 수행한다. 이 경우에, 계산은 분류 결과인 시점으로부터 가장 가까운 위치에 위치된 픽셀의 색 정보(R2, G2, B2, A2)와 블렌딩 프로세서(3062-3)의 계산 결과(R"', G"', B"', A"')를 사용하여 수행된다. 다음으로, 블렌딩 프로세서(3062-4)는 마지막 색 정보(Ro 값, Go 값, Bo 값, Ao 값)를 얻는다.
Ro = R2 × A2 + (1 - A2) × R"'...(10)
Go = G2 × A2 + (1 - A2) × G"'...(11)
Bo = B2 × A2 + (1 - A2) × B"'...(12)
Ao값은 A"'와 A2의 합계에 의해 얻어진다.
다음으로 z-분류기(3061)는 동일한 (x,y) 좌표를 갖는 다음 네 개의 픽셀을 선택하고 값의 크기로 선택된 픽셀의 z-좌표를 비교한다. 다음으로,z-분류기(3061)는 전술된 방법과 같이 z-좌표(z)의 감소하는 순서로 4 픽셀을 분류하고 시점으로부터 먼 픽셀의 위치 순서로 블렌더(3062)로 색 정보를 공급한다. 다음에, 블렌더(3062)는 방정식 (1)~(12)에 의해 표현된 전술된 처리를 수행하고 마지막 색 정보(Ro값, Go값, Bo값, Ao값)을 얻는다. 이 유형에서, 마지막 16픽셀의 마지막 색 정보(Ro값, Go값, Bo값, Ao값)이 얻어진다.
다음으로, 16픽셀의 마지막 색 정보(Ro값, Go값, Bo값, Ao값)는 다음 단의 병합기로 보내진다. 마지막 단의 병합기(121)의 경우에, 영상이 얻어진 마지막 색 정보(Ro값, Go값, Bo값, Ao값)를 기반으로 디스플레이에 표시된다.
<동작 모드>
도 6을 사용한 영상 처리 방법의 진행을 특히 강조하여 영상 처리 시스템의 동작 모드의 설명이 다음에 주어질 것이다.
그래픽 데이타가 버스(205)를 경유하여 영상 생성기의 렌더링 회로(204)로 공급되는 경우에, 이 그래픽 데이타는 렌더링 회로(204)의 맵핑 프로세서(2041)로 공급된다(단계 S101). 맵핑 프로세서(2041)는 그래픽 데이타를 기반으로 선형 개변, 텍스쳐 맵핑 등을 수행한다. 맵핑 프로세서(2041)는 먼저 폴리곤이 단위 길이로 움직이는 경우에 생성된 변동을 폴리곤의 두 정점의 죄표와 두 정점 사이의 거리를 기반으로 계산한다. 다음으로, 맵핑 프로세서(2041)는 계산된 변동으로부터 폴리곤에서 각 픽셀에 대한 개변 데이타를 계산한다. 개변 데이타는 좌표(x,y,z,s,t,q)와 R-값, G-값, B-값, A-값을 포함한다. 다음으로, 맵핑 프로세서(2041)는 개변 데이타에 포함된 좌표 값(s,t,q)을 기반으로 텍스쳐 좌표(u,v)를계산한다. 맵핑 프로세서(2041)는 텍스쳐 좌표(u,v)를 기반으로 DRAM(2049)으로부터 텍스쳐 데이타의 각 색 정보(R-값, G-값, B-값)를 판독한다. 그런 다음, 판독된 텍스쳐 데이타의 색 정보(R-값, G-값, B-값)와 개변 데이타에 포함된 색 정보(R-값, G-값, B-값)가 픽셀 데이타를 생성하기 위하여 곱해진다. 생성된 픽셀 데이타는 맵핑 프로세서(2041)로부터 메모리 I/F로 보내진다.
메모리 I/F 회로(2046)는 맵핑 프로세서(2041)로부터 입력된 픽셀 데이타의 z-좌표를 z-버퍼(2049c)에 저장된 z-좌표와 비교하고, 픽셀 데이타에 의해 묘화된 영상이 프레임 버퍼(2049b)에 기록된 영상보다 시점에 가까운 위치인지 아닌지를 판단한다. 픽셀 데이타에 의해 묘화된 영상이 프레임 버퍼(2049b)에 기록된 시점보다 가까운 위치인 경우, 버퍼(2049c)는 픽셀 데이타의 z-좌표를 고려하여 업데이트된다. 이 경우에, 픽셀 데이타의 색 정보(R-값, G-값, B-값, A-값)가 프레임 버퍼(2049b)에 묘화된다(단계 S102).
또한, 표시 영역에서 픽셀 데이타의 인접한 부분은 메모리 I/F 회로(2046)의 제어하에서 다른 DRAM 모듈을 얻기 위해 배열된다.
각 병합기(117~120)에서, 동조 신호 생성 회로(305)는 다음 단의 병합기(121)로부터 외부 동조 신호(SYNCIN)를 수신하고, 각각의 대응하는 영상 생성기로 외부 동조 신호(SYNCIN)를 공급한다(단계 S111, S121).
병합기(117~120)으로부터의 수신된 외부 동조 신호(SYNCIN)를 갖는 각 영상 생성기(101~116)에서, 프레임 버퍼(2049b)에서 묘화된 색 정보(R-값, G-값, B-값, A-값)를 판독하고 z-버퍼 프레임(2049b)에 저장된 z-좌표를 판독하기 위한 요청이외부 동조 신호(SYNCIN)와 동조하여 CRT 제어기(2047)로부터 메모리 I/F 회로(2046)로 보내진다. 다음으로, 판독된 색 정보(R-값, G-값, B-값, A-값)와 z-좌표를 포함하는 영상 데이타와 기록 신호로서 기록 가능 신호(WE)가 CRT 제어기(2047)로부터 대응하는 병합기(117~120)로 보내진다(단계 S103).
영상 데이타와 기록 가능 신호(WE)는 영상 생성기(101~104)로부터 병합기(117)로, 영상 생성기(105~108)로부터 병합기(118)로, 영상 생성기(109~112)로부터 병합기(119)로, 그리고 영상 생성기(113~116)로부터 병합기(120)로 보내진다.
각 병합기(117~120)에서, 영상 데이타는 대응하는 영상 생성기로부터의 기록 가능 신호(WE)와 동조하여 FIFO(301~304)에 각각 기록된다(단계 S112). 다음으로, FIFO(301~304)에 기록된 영상 데이타가 외부 동조 신호(SYNCIN)로부터 소정의 주기만큼의 지연(delay)으로 생성된 외부 동조 신호(Vsync)와 동조하여 판독된다. 다음으로, 판독된 영상 데이타가 병합 블럭(306)으로 보내진다(단계 S113, S114).
각 병합기(117~120)의 병합 블럭(306)은 내부 동조 신호(Vsync)와 동조하여 FIFO(301~304)로부터 보내진 영상 데이타를 수신하고, 값의 크기 항목으로 영상 데이타에 포함된 z-좌표 사이의 비교를 수행하고, 그리고 비교 결과를 기반으로 영상 데이타를 분류한다. 분류 결과에 따라, 병합 블럭(306)은 시야로부터 먼 위치의 순서로 색 정보(R-값, G-값, B-값, A-값)의 α블렌딩을 수행한다(단계 S115). α블렌딩에 의해 얻어진 새로운 색 정보(R-값, G-값, B-값, A-값)를 포함하는 영상 데이타가 병합기(121)로부터 보내진 외부 동조 신호와 동조하여 병합기(121)로 출력된다(단계 S116, S122).
병합기(121)에서, 영상 데이타는 병합기(117~120)로부터 수신되고, 병합기(117~120)의 이들과 같은 처리가 수행된다(단계 S123). 마지막 영상의 색 등이 병합기(121)에 의해 수행된 처리로부터의 결과 영상 데이타를 기반으로 결정된다. 전술된 처리의 반복을 통해, 움직이는 영상이 만들어진다.
전술된 방법에서, α블렌딩에 의해 투명 처리된 영상이 만들어진다.
병합 블럭(306)은 z-분류기(3061)와 블렌더(3062)를 갖는다. 이는 z-버퍼 알고리즘에 따라 z-분류기(3061)에 의해 수행된 종래의 감춰진 표면 처리에 더하여 α블렌딩을 사용하여 블렌더(3062)에 의해 수행되는 투명 처리를 수행할 수 있도록 한다. 이와 같은 처리는 모든 픽셀에 대해 수행되어, 복수의 영상 생성기에 의해 생성된 영상이 병합된 결합된 영상을 생성하는 것이 쉽도록 만든다. 이는 반투명 그래픽이 혼합된 복잡한 그래픽을 정확하게 처리할 수 있도록 한다. 따라서, 복잡한 반투명 대상이 높은 선명도로 표시될 수 있도록 하고, 이는 3D 컴퓨터 그래픽, VR(Virtual Reality), 디자인 등을 사용하는 게임과 같은 분야에서 사용될 수 있다.
<다른 실시형태>
본 발명은 전술된 실시형태에 한정되지 않는다. 도 1에 도시된 영상 처리 시스템에서, 네 개의 영상 생성기가 네 개의 병합기(117~120)의 각각에 연결되고, 네 개의 병합기(117~120)가 병합기(121)에 연결된다. 이 실시형태에 더하여, 예를 들면 도 7에 도시된 실시형태도 가능할 수 있다.
도 7은 복수의 영상 생성기(이 경우에서는 네 개)가 마지막 출력을 얻기 위해 병렬로 하나의 병합기(135)에 연결된 실시형태를 도시한다.
도 8은 네 개의 영상 생성기가 병합기(135)에 연결될 수 있을지라도 세 개의 영상 생성기가 마지막 출력을 얻기 위해 병렬로 하나의 병합기(135)에 연결된 실시형태를 도시한다.
도 9는 네 개의 영상 생성기가 연결가능한 병합기(135,14)에 네 개의 영상 생성기(131~134 및 136~139)가 각각 연결된, 소위 대칭 시스템(symmetrical system)의 실시형태를 도시한다. 또한, 병합기(135,140)의 출력은 병합기(141)로 입력된다.
도 10은 다음의 실시형태를 도시한다. 특히, 다단 방법으로 병합기를 연결하는 경우에, 도 9에 도시된 것과 같은 완벽한 대칭을 대신하여, 네 개의 영상 생성기가 연결가능한 병합기(135)에 네 개의 영상 생성기(131~134)가 연결되고, 병합기(135)와 세 개의 영상 생성기(136~138)의 출력이 네 개의 영상 생성기가 연결가능한 병합기(141)에 연결된다.
<네트워크를 사용하는 경우의 실시형태>
전술된 각 실시형태의 영상 처리 시스템은 영상 생성기와 병합기가 서로 근접하여 제공되는 구성이고, 이와 같은 영상 처리 시스템은 짧은 송신 라인을 사용하여 각 장치를 연결하여 이행된다. 이와 같은 영상 처리 시스템은 하나의 하우징(housing)에 수용될 수 있다.
영상 생성기와 병합기가 서로 근접하여 제공되는 경우에 더하여, 영상 생성기와 병합기가 완전히 다른 위치에 제공되는 경우가 고려될 수 있다. 이와 같은 경우에도, 이들은 데이타 상호 송신/수신을 위해 네트워크를 통해 서로 연결되고, 이에 의해 본 발명의 영상 처리 시스템을 이행할 수 있도록 한다. 네트워크를 사용한 실시형태가 다음에서 설명될 것이다.
도 11은 네트워크를 통해 영상 처리 시스템을 이행하는 실시예의 구조를 도시한다. 영상 처리 시스템을 이행하기 위해, 복수의 영상 생성기(155)와 병합기(156)가 네트워크를 통해 교환기 또는 스위치(154)에 각각 연결된다.
영상 생성기(155)는 도 2에 도시된 영상 생성기와 같은 구성과 기능을 갖는다.
병합기(156)는 도 3에 도시된 병합기와 같은 구성과 기능을 갖는다. 복수의 영상 생성기(155)에 의해 생성된 영상 데이타는 스위치(154)를 경유하여 대응하는 병합기(156)로 보내지고, 여기서 병합되어 결합된 영상이 만들어진다.
전술된 것에 더하여, 이 실시형태의 영상 처리 시스템은 비디오 신호 입력 장치(150), 버스 마스터 장치(151), 제어기(152) 및 그래픽 데이타 저장소(153)를 포함한다. 비디오 신호 입력 장치(150)는 외부로부터 영상 데이타의 입력을 수신하고, 버스 마스터 장치(151)는 네트워크를 초기화하고 네트워크의 각 구성 요소를 관리하고, 제어기(152)는 구성 요소 사이의 연결 모드를 결정하고, 그리고 그래픽 데이타 저장소(153)는 그래픽 데이타를 저장한다. 또한 이들 구성 요소는 네트워크를 통해 스위치(154)에 연결된다.
버스 마스터 장치(151)는 주소와 수행에 관계된 정보와 시작 처리시에 스위치(154)에 연결된 모든 구성 요소와 연결된 처리의 내용을 얻는다. 또한 버스 마스터 장치(151)는 얻어진 정보를 포함하는 주소 맵을 만든다. 만들어진 주소 맵은 모든 구성 요소로 보내진다.
제어기(152)는 영상 처리 수행에 사용되는 구성 요소, 즉 네트워크를 통해 영상 처리 시스템을 형성하는 구성 요소를 선택하고 결정한다. 주소 맵이 구성 요소의 수행에 관한 정보를 포함하기 때문에, 처리의 부하에 따른 구성 요소와 실행될 처리와 연결된 내용을 선택하는 것이 가능하다.
영상 처리 시스템의 구성을 나타내는 정보는 스위치(154)를 포함하는 이와 같은 모든 구성 요소에 저장되기 위해 영상 처리 시스템을 형성하는 모든 구성 요소로 보내진다. 이는 각 구성 요소가 데이타 송신과 수신을 수행할 수 있음을 알게하는 것을 가능하게 만든다. 제어기(152)는 다른 네트워크와 링크를 수립할 수 있다.
그래픽 데이타 저장소(153)는 하드 디스크와 같은 대용량 저장소이고, 영상 생성기(155)에 의해 처리된 그래픽 데이타를 저장한다. 그래픽 데이타는 예를 들면 비디오 신호 입력 장치(150)를 경유하여 외부로부터 입력된다.
스위치(154)는 각 구성 요소 사이의 정확한 데이타 송신과 수신을 보증하기 위해 데이타의 송신 채널을 제어한다.
스위치(154)를 경유한 각 구성 요소 사이의 송신되고 수신된 데이타는 수신측의 주소와 같은 구성 요소를 확인하는 데이타를 포함하고, 예를 들면 패킷 데이타로 형성되는 것이 바람직하다.
스위치(154)는 주소에 의해 확인된 구성 요소로 데이타를 보낸다. 주소는 네트워크의 구성 요소(버스 마스터 장치(151) 등)를 유일하게 나타낸다. 네트워크가 인터넷인 경우에, IP(Internet Protocol) 주소가 사용될 수 있다.
이와 같은 데이타의 예가 도 12에 도시되었다. 각 데이타는 수신측의 구성 요소의 주소를 포함한다.
데이타 "CP"는 제어기(152)에 의해 실행되는 프로그램을 나타낸다.
데이타 "M0"은 병합기(156)에 의해 처리되는 데이타를 나타낸다. 복수의 병합기가 제공되는 경우, 각 병합기는 타겟 병합기가 식별될 수 있는 숫자로 정해질 수도 있다. 따라서, "M0"은 숫자 "0"으로 정해진 병합기에 의해 처리되는 데이타를 나타낸다. 유사하게, "M1"은 숫자 "1"로 정해진 병합기에 의해 처리되는 데이타를 나타내고, "M2"는 숫자 "2"로 정해진 병합기에 의해 처리되는 데이타를 나타낸다.
데이타 "A0"은 영상 생성기(155)에 의해 처리되는 데이타를 나타낸다. 병합기와 유사하게, 복수의 영상 생성기가 제공되는 경우에, 각 영상 생성기는 숫자로 정해져서 타겟 영상 생성기가 식별될 수 있다.
데이타 "V0"은 비디오 신호 입력 장치(150)에 의해 처리되는 데이타를 나타낸다. 데이타 "SD"는 그래픽 데이타 저장소(153)에 저장되는 데이타를 나타낸다.
전술된 데이타는 수신측에 구송 요소로 단독 또는 결합하여 보내진다.
도 13을 참조로 영상 처리 시스템을 형성하는 구성 요소를 결정하는 단계의 설명이 주어질 것이다.
먼저, 버스 마스터 장치(151)는 처리 요소, 처리 수행 및 주소와 같은 정보를 확인하기 위한 데이타를 스위치(154)에 연결된 모든 구성 요소로 보낸다. 각 구성 요소는 처리 내용, 처리 수행 및 주소의 정보를 포함하는 데이타를 보내진 버스 마스터 장치(151)로부터의 데이타에 대한 응답으로 버스 마스터 장치(151)로 보낸다(단계 S201).
버스 마스터 장치(151)가 각 구성 요소로부터 보내진 데이타를 수신하는 경우에, 버스 마스터 장치(151)는 처리 내용, 처리 수행 및 주소에 관한 주소 맵을 만든다(단계 S202). 만들어진 주소 맵은 모든 구성 요소에 제공된다(단계 S203).
제어기(152)는 주소 맵을 기반으로 영상 처리를 실행하는 구성 요소의 후보(candidate)를 결정한다. 제어기(152)는 후보 구성 요소가 요청되는 처리를 실행할 수 있는지를 확인하기 위하여 후보 구성 요소로 확인 데이타를 송신한다(단계 S213). 제어기(152)로부터 확인 데이타를 수신한 각 후보 구성 요소는 실행이 가능한지 또는 아닌지를 나타내는 데이타를 제어기(152)로 보낸다. 제어기(152)는 실행이 가능한지 또는 아닌지를 나타내는 데이타의 내용을 확인하고, 분석 결과를 기반으로 실행이 가능하다는 것을 나타내는 데이타의 수신으로부터 구성 요소 사이로부터의 처리를 요청하기 위해 마지막으로 구성 요소를 결정한다(단계 S214). 다음으로, 결정된 구성 요소를 조합하여, 네트워크를 통한 영상 처리 시스템의 구성 요소가 결정된다. 영상 처리 시스템의 결정된 구성 요소를 나타내는 데이타는 "구성 요소 데이타"라고 불린다. 이 구성 요소 데이타는 영상 처리 시스템을 형성하는 모든 구성 요소로 공급된다(단계 S215).
영상 처리 시스템에서 사용되는 구성 요소는 전술된 단계를 통해 결정되고,영상 처리 시스템의 구성은 결정된 구성 요소 데이타를 기반으로 결정된다. 예를 들면, 16개의 영상 생성기(155)와 5개의 병합기(156)가 사용되는 경우에, 도 1의 것과 동일한 영상 처리 시스템이 구성될 수 있다. 7개의 영상 생성기(155)와 2개의 병합기(156)가 사용되는 경우에, 도 10의 것과 동일한 영상 처리 시스템이 구성될 수 있다.
이 방법에서, 목적에 따라 네트워크의 다양한 구성 요소를 사용하는 영상 처리 시스템의 구성 요소가 자유롭게 결정될 수 있다.
이 실시형태의 영상 처리 시스템을 사용하는 영상 처리의 단계의 설명이 다음에서 주어질 것이다. 이들 처리 단계는 도 6의 것과 실질적으로 동일하다.
각 영상 생성기(155)는 그래픽 데이타 저장소(153)로부터 공급되거나 영상 생성기(155)에 제공된 그래픽 프로세서(201)에 의해 생성된 그래픽 데이타에 대하여 렌더링 회로(204)를 사용하여 렌더링을 수행하고, 영상 데이타를 생성한다(단계 S102, S102).
병합기(156) 중에서, 마지막 영상 조합을 수행하는 병합기(156)는 외부 동조 신호(SYNCIN)을 생성하고 이 외부 동조 신호(SYNCIN)를 병합기(156) 또는 전단의 영상 생성기(155)로 보낸다. 다른 병합기(156)가 전단에 추가로 제공되는 경우에, 외부 동조 신호(SYNCIN)를 받은 각 병합기(156)는 외부 동조 신호(SYNCIN)를 대응하는 다른 병합기(156)의 하나로 보낸다. 영상 생성기(155)가 전단에 제공되는 경우에, 각 병합기(156)는 영상 생성기(155)의 대응하는 하나에 외부 동조 신호(SYNCIN)를 보낸다(단계 S111, S121).
각 영상 생성기(155)는 생성된 영상 데이타를 입력된 외부 동조 신호(SYNCIN)와 동조하여 다음 단의 대응하는 병합기(156)로 보낸다. 영상 데이타에서, 목적지로서의 병합기(156)의 주소가 머리 부분에 부가된다(단계 S103).
영상 데이타가 입력된 각 병합기(156)는 조합된 영상 데이타를 만들기 위해 입력된 영상 데이타(단계 S112 ~ S115)를 병합한다. 각 병합기(156)는 다음 타이밍에 입력된 외부 동조 신호(SYNCIN)와 동조하여 다음단의 병합기(156)로 조합된 영상 데이타를 보낸다(단계 S122, S116). 다음으로, 조합된 영상 데이타가 전체 영상 처리 시스템의 추력으로서 사용되는 병합기(156)에 의해 마지막으로 얻어진다.
병합기(156)는 복수의 영상 생성기(155)로부터 동조하여 영상 데이타를 수신하는 것이 어렵다. 그러나, 도 3에 도시된 바와 같이, 영상 데이타는 FIFO(301~304)에서 한번 캡쳐되고 다음으로 내부 동조 신호(Vsync)와 동조하여 이들로부터 병합 블럭(306)으로 공급된다. 이에 의해, 영상 데이타의 동조는 영상 병합시에 완전히 성취된다. 이는 이 실시형태의 영상 처리 시스템이 네트워크를 통해 수행될지라도 영상 병합에 영상 데이타를 동조하는 것을 쉽게 한다.
제어기(152)가 다른 네트워크와 링크를 수립할 수 있다는 사실의 사용은 다른 네트워크에 형성된 다른 영상 처리 시스템을 일부 또는 전체 구성 요소로서 사용하는 집적된 영상 처리 시스템을 수립하는 것이 가능하도록 한다.
다시 말하면, 이는 "양자 구조(nested structure)"의 영상 처리 시스템으로서 실행될 수 있다.
도 14는 집적된 영상 처리 시스템의 구성 예를 도시하고, 참조 번호(157)에의해 도시된 부분은 제어기와 복수의 영상 생성기를 갖는 영상 처리 시스템을 나타낸다. 도 14에 도시되지는 않았지만, 영상 처리 시스템(157)은 도 11에 도시된 영상 처리 시스템과 같이 비디오 신호 입력 장치, 버스 마스터 장치, 그래픽 데이타 저장소 및 병합기를 추가로 포함할 수도 있다. 이 집적된 영상 처리 시스템에서, 제어기(152)는 다른 영상 처리 시스템(157)과 접촉하고, 동조를 확보하면서 영상 데이타의 송신과 수신을 수행한다.
이와 같은 집적된 영상 처리 시스템에서, 영상 처리 시스템(157)으로 전송되는 데이타로서 도 15에 도시된 패킷 데이타를 사용하는 것이 바람직하다. 영상 처리 시스템(157)이 (n-1)-계층 시스템이면, 제어기(152)에 의해 결정되는 영상 처리 시스템은 n-계층 시스템인 것으로 가정된다.
영상 처리 시스템(157)은 영상 생성기(155)의 하나인 영상 생성기(155a)를 경유하여 n-계층 영상 처리 시스템과 데이타의 송신과 수신을 수행한다. 영상 생성기(155a)로 보내지는 데이타 "An0"은 데이타(Dn)에 포함된다. 도 15에 도시된 바와 같이, 데이타 "An0"은 데이타(Dn-1)를 포함한다. 데이타 "An0"에 포함된 데이타(Dn-1)는 영상 생성기(155a)로부터 (n-1)-계층 영상 처리 시스템으로 보내진다. 이 방법에서, 데이타는 n-계층 영상 처리 시스템으로부터 (n-1)-계층 시스템으로 보내진다.
(n-2)-계층 영상 처리 시스템이 영상 처리 시스템(157)에서 영상 생성기의 하나에 추가로 연결되는 것도 가능할 수 있다.
도 15에 도시된 데이타 구조를 사용하면, n-계층 구성 요소로부터 0-계층 구성 요소로 데이타를 보내는 것이 가능하다.
또한, 영상 처리 시스템을 사용하는 집적된 영상 처리 시스템이 도 1에서 네트워크에 연결되는 영상 생성기(155)의 하나의 위치에서 하나의 하우징(예를 들면, 도 1에 도시된 영상 처리 시스템(100))에 수용되는 것을 이행하는 것이 가능하다. 이 경우에, 영상 처리 시스템을 집적된 영상 처리 시스템에서 사용되는 네트워크에 연결하는 네트워크 인터페이스를 제공하는 것이 필요하다.
전술된 실시형태에서, 영상 생성기와 병합기가 반도체 장치에 모두 제공된다. 그러나, 이들은 범용 컴퓨터와 프로그램으로 결합되어 제공될 수도 있다. 특히, 컴퓨터에 의해 기록 매체에 기록된 프로그램을 판독하고 실행하는 것을 통해, 컴퓨터에서 영상 생성기와 병합기의 기능을 구성하는 것이 가능하다. 또한, 영상 생성기와 병합기의 일부가 반도체 칩에 의해 제공될 수도 있고, 다른 부분이 컴퓨터와 프로그램으로 결합되어 제공될 수도 있다.
전술된 바와 같이, 본 발명에 따르면, 복수의 영상 데이타가 각 영상 데이타에 포함된 심도 거리의 순서로 특정된다. 또한, 심도 거리가 상대적으로 긴 영상 데이타의 색 정보와 심도 거리가 상대적으로 긴 전술된 영상 데이타에 의해 표현되는 영상에 겹치기 방법으로 영상을 표현하는 영상 데이타의 색 정보가 결합된 영상 데이타를 만들기 위해 블렌드되고 병합된다. 이는 반투명 영상이 3D영상에서 복잡하게 혼합되는 경우에도 3D 영상이 정확히 표현되는 효과가 성취될 수 있도록 한다.
다양한 실시형태와 변경이 본 발명의 넓은 정신과 사상 내에서 만들어질 수 있다. 전술된 실시형태는 본 발명을 설명하기 위한 것이고, 본 발명의 사상은 이에 한정되지 않는다. 본 발명의 사상은 실시형태가 아닌 첨부된 청구항에 의해 나타난다. 본 발명의 청구항의 등가 수단내와 청구항 내의 다양한 수정은 본 발명의 사상내인 것이다.

Claims (19)

  1. 영상 데이타에 의해 표현되는 영상의 소정의 참조 부분으로부터의 심도 거리와 상기 영상의 색 정보를 포함하는 영상 데이타를 각각이 생성하는 복수의 영상 생성기; 및
    상기 각 복수의 영상 생성기로부터 상기 영상 데이타를 받는 병합기를 포함하고,
    상기 병합기는 상기 각 영상 데이타에 포함된 심도 거리의 순서로 상기 복수의 수신된 영상을 특정하고, 심도 거리가 상대적으로 긴 첫번째 영상을 표현하는 상기 영상 데이타의 색 정보와 상기 첫번째 영상에 겹치기 방법으로 두번째 영상을 표현하는 상기 영상 데이타의 색 정보를 병합하는 것을 특징으로 하는 영상 처리 시스템.
  2. 제1항에 있어서, 상기 심도 거리는 상기 소정의 참조 부분으로부터의 픽셀의 심도 거리이고 상기 색 정보는 상기 픽셀의 색 정보이고, 상기 병합기는 상기 픽셀의 심도 거리의 순서로 상기 픽셀을 특정하고 상기 픽셀의 색 정보를 병합하는 것을 특징으로 하는 영상 처리 시스템.
  3. 제2항에 있어서, 상기 각 영상 데이타는 복수의 픽셀의 심도 거리와 상기 픽셀의 색 정보를 포함하고, 상기 병합기는 동일한 2차원 좌표를 갖는 상기 픽셀을상기 픽셀의 상기 심도 거리의 순서로 특정하고 상기 동일한 2차원 좌표를 갖는 상기 픽셀의 색 정보를 병합하는 것을 특징으로 하는 영상 처리 시스템.
  4. 제1항에 있어서, 상기 병합기는 가장 긴 심도 거리를 갖는 상기 영상 데이타의 상기 색 정보와 두번째로 긴 심도 거리를 갖는 상기 영상 데이타의 상기 색 정보를 병합하고, 상기 병합 결과와 세번째로 긴 심도 거리를 갖는 상기 영상 데이타의 상기 색 정보를 추가로 병합하는 것을 특징으로 하는 영상 처리 시스템.
  5. 제4항에 있어서, 상기 병합기는 가장 긴 심도 거리를 갖는 상기 영상 데이타의 상기 색 정보와 배경을 표현하는 배경 영상 데이타의 색 정보를 병합하는 것을 특징으로 하는 영상 처리 시스템.
  6. 제4항에 있어서, 가장 긴 심도 거리를 갖는 상기 영상 데이타는 배경을 표현하는 배경 영상 데이타인 것을 특징으로 하는 영상 처리 시스템.
  7. 제1항에 있어서, 상기 색 정보는 삼원색을 표현하는 휘도 값과 반투명도를 표현하는 투명도 값을 포함하는 것을 특징으로 하는 영상 처리 시스템.
  8. 제1항에 있어서, 상기 영상 처리 시스템의 영상 처리 타이밍에 상기 복수 영상 생성기로부터 상기 영상 데이타를 캡쳐하는 타이밍을 동조하는 동조부를 추가로포함하는 것을 특징으로 하는 영상 처리 시스템.
  9. 제8항에 있어서, 상기 복수의 영상 생성기, 상기 병합기 및 상기 동조부는 부분적으로 또는 전체적으로 논리 회로와 반도체 메모리를 포함하고, 상기 논리 회로와 상기 반도체 메모리는 반도체 칩에 탑재되는 것을 특징으로 하는 영상 처리 시스템.
  10. 영상 데이타에 의해 표현되는 영상의 소정의 참조 부분으로부터의 심도 거리와 상기 영상의 색 정보를 포함하는 영상 데이타를 각각이 생성하는 복수의 영상 생성기의 각각으로부터 영상 데이타를 캡쳐하는 데이타 캡쳐부; 및
    상기 각 영상 데이타에 포함된 심도 거리의 순서로 상기 복수의 캡쳐된 영상 데이타를 특정하고 심도 거리가 상대적으로 긴 첫번째 영상을 표현하는 상기 영상 데이타의 색 정보와 상기 첫번째 영상에 겹치기 방법으로 두번째 영상을 표현하는 영상 데이타의 색 정보를 병합하는 색 정보 병합기를 포함하고,
    상기 데이타 캡쳐부와 상기 색 정보 병합기는 반도체칩에 탑재되는 것을 특징으로 하는 영상 처리 장치.
  11. 제10항에 있어서, 상기 영상 처리 장치의 영상 처리 타이밍에 상기 복수의 영상 생성기로부터 상기 영상 데이타를 캡쳐하는 타이밍을 동조하는 동조부를 추가로 포함하는 것을 특징으로 하는 영상 처리 장치.
  12. 영상 데이타에 의해 표현되는 영상의 색 정보를 포함하는 영상 데이타를 저장하는 프레임 버퍼;
    소정의 참조 부분으로부터의 상기 영상의 심도 거리를 저장하는 z-버퍼; 및
    상기 각 영상 데이타에 포함된 상기 심도 거리의 순서로 복수의 수신된 영상 데이타를 특정하고 시도 거리가 상대적으로 긴 첫번째 영상 데이타를 표현하는 상기 영상 데이타의 색 정보와 상기 첫번재 영상에 겹치기 방법으로 두번째 영상을 표현하는 상기 영상 데이타의 색 정보를 병합하기 위하여, 주 영상 처리 장치를 포함하는 복수의 영상 처리 장치의 각각으로부터 상기 색 정보와 상기 심도 거리를 포함하는 상기 영상 데이타를 수신하는 병합기와 통신하는 통신부를 포함하고,
    상기 프레임 버퍼, 상기 z-버퍼 및 상기 통신부는 반도체 칩에 탑재되는 것을 특징으로 하는 영상 처리 장치.
  13. 복수의 영상 생성기와 상기 복수의 영상 생성기에 연결된 병합기를 포함하는 영상 처리 시스템에서 실행되는 영상 처리 방법으로, 상기 방법은:
    상기 복수의 영상 생성기가 영상 데이타에 의해 표현되는 영상의 소정의 참조 부분으로부터의 심도 거리와 상기 영상의 색 정보를 각각 포함하는 영상 데이타를 생성하도록 하는 단계; 및
    상기 병합기가 상기 각 영상 데이타에 포함된 상기 심도 거리의 순서로 복수의 캡쳐된 영상 데이타를 특정하고 심도 거리가 상대적으로 긴 첫번째 영상을 표현하는 상기 영상 데이타의 상기 색 정보와 상기 첫번째 영상에 겹치기 방법으로 두번째 영상을 표현하는 상기 영상 데이타의 상기 색 정보를 병합하기 위해, 소정의 동조 타이밍에 상기 각 복수의 영상 생성기로부터 상기 영상 데이타를 캡쳐하도록 하는 단계를 포함하는 것을 특징으로 하는 영상 처리 방법.
  14. 영상 데이타에 의해 표현되는 영상의 소정의 참조 부분으로부터의 심도 거리와 상기 영상의 색 정보를 포함하는 영상 데이타를 각각이 생성하는 복수의 영상 생성기; 및
    상기 복수의 영상 생성기 각각으로부터 상기 영상 데이타를 받는 병합기를 포함하는, 영상 시스템으로서 동작되는 컴퓨터가,
    상기 병합기가 상기 각 영상 데이타에 포함된 상기 심도 거리의 순서로 상기 복수의 수신된 영상 데이타를 특정하고 심도 거리가 상대적으로 긴 첫번재 영상을 표현하는 상기 영상 데이타의 상기 색 정보와 상기 첫번째 영상에 겹치기 방법으로 두번째 영상을 표현하는 상기 영상 데이타의 상기 색 정보를 병합하도록 하는 컴퓨터 프로그램.
  15. 영상 데이타에 의해 표현되는 영상의 소정의 참조 부분으로부터의 심도 거리와 상기 영상의 색 정보를 포함하는 상기 영상 데이타를 각각이 생성하는 복수의 영상 생성기의 각각으로부터 네트워크를 통해 영상 데이타를 캡쳐하는 데이타 캡쳐부; 및
    상기 각 영상 데이타에 포함된 상기 심도 거리의 순서로 상기 복수의 캡쳐된 영상 데이타를 특정하고, 심도 거리가 상대적으로 긴 첫번재 영상을 표현하는 상기 영상 데이타의 상기 색 정보와 상기 첫번째 영상에 겹치기 방법으로 두번째 영상을 표현하는 상기 영상 데이타의 상기 색 정보를 병합하는 색 정보 병합기를 포함하는 영상 처리 시스템.
  16. 영상 데이타에 의해 표현되는 영상의 소정의 참조 부분으로부터의 심도 거리와 상기 영상의 색 정보를 포함하는 영상 데이타를 각각이 생성하는 복수의 영상 생성기;
    상기 복수의 영상 생성기에 의해 생성된 상기 영상 데이타를 캡쳐하고 상기 캡쳐된 영상 데이타를 병합하는 복수의 병합기; 및
    처리를 위해 상기 복수의 영상 생성기와 상기 복수의 병합기로부터 영상 생성기와 적어도 하나의 병합기를 선택하는 제어기를 포함하고,
    상기 복수의 영상 생성기, 상기 복수의 병합기 및 상기 제어기는 네트워크를 통해 서로 연결되고, 상기 복수의 병합기의 적어도 하나가 상기 각 영상 데이타에 포함된 심도 거리의 순서로 상기 복수의 캡쳐된 영상 데이타를 특정하고 심도 거리가 상대적으로 긴 첫번재 영상을 표현하는 상기 영상 데이타의 상기 색 정보와 상기 첫번째 영상에 겹치기 방법으로 두번째 영상을 표현하는 상기 영상 데이타의 상기 색 정보를 병합하기 위해 상기 선택된 영상 생성기로부터 상기 영상 데이타를 캡쳐하는 것을 특징으로 하는 영상 처리 시스템.
  17. 제16항에 있어서, 상기 선택된 영상 생성기의 적어도 하나는 상기 네트워크와 다른 네트워크를 통해 연결되는 다른 영상 생성기를 갖고, 또한 상기 영상 데이타는 상기 다른 영상 생성기에 의해 생성되는 것을 특징으로 하는 영상 처리 시스템.
  18. 제16항에 있어서, 상기 영상 데이타는 상기 영상 데이타를 캡쳐하는 타겟 병합기를 특정하는 데이타를 포함하는 것을 특징으로 하는 영상 처리 시스템.
  19. 제16항에 있어서, 저장된 데이타에 의해 특정된 상기 영상 생성기에 의해 생성된 영상 데이타를 캡쳐하고 상기 저장된 데이타에 의해 특정된 적어도 하나의 병합기로 상기 캡쳐된 영상을 송신하기 위해 상기 제어기에 의해 선택된 영상 생성기와 적어도 하나의 병합기를 특정하는 데이타를 저장하는 스위치를 추가로 포함하는 것을 특징으로 하는 영상 처리 시스템.
KR1020027017399A 2000-07-24 2001-07-24 병렬 z-버퍼 구성 및 투명도 KR20030012889A (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JPJP-P-2000-00223162 2000-07-24
JP2000223162 2000-07-24
JP2001221965A JP3466173B2 (ja) 2000-07-24 2001-07-23 画像処理システム、デバイス、方法及びコンピュータプログラム
JPJP-P-2001-00221965 2001-07-23

Publications (1)

Publication Number Publication Date
KR20030012889A true KR20030012889A (ko) 2003-02-12

Family

ID=26596595

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020027017399A KR20030012889A (ko) 2000-07-24 2001-07-24 병렬 z-버퍼 구성 및 투명도

Country Status (8)

Country Link
US (1) US20020080141A1 (ko)
EP (1) EP1303840A1 (ko)
JP (1) JP3466173B2 (ko)
KR (1) KR20030012889A (ko)
CN (1) CN1244076C (ko)
AU (1) AU2001272788A1 (ko)
TW (1) TWI243703B (ko)
WO (1) WO2002009035A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9349075B2 (en) 2012-10-24 2016-05-24 Samsung Electronics Co., Ltd. Image processing apparatus and method for detecting transparent object in image

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4468658B2 (ja) * 2003-06-16 2010-05-26 三菱プレシジョン株式会社 演算処理方法及びその装置並びに画像合成方法及びその装置
FR2864318B1 (fr) * 2003-12-23 2007-03-16 Alexis Vartanian Dispositif d'organisation des donnees dans la memoire de trame d'un processeur graphique
JP4714939B2 (ja) * 2004-06-25 2011-07-06 新世代株式会社 ピクセルミキサ
JP4462132B2 (ja) 2005-07-04 2010-05-12 ソニー株式会社 画像特殊効果装置,グラフィックスプロセッサ,プログラム
KR20070066621A (ko) * 2005-12-22 2007-06-27 삼성전자주식회사 이미지처리장치 및 이미지처리방법
JP4094647B2 (ja) 2006-09-13 2008-06-04 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム処理方法、ならびに、プログラム
CN101055645B (zh) * 2007-05-09 2010-05-26 北京金山软件有限公司 一种阴影实现的方法及装置
US8243092B1 (en) * 2007-11-01 2012-08-14 Nvidia Corporation System, method, and computer program product for approximating a pixel color based on an average color value and a number of fragments
DE102007061088B4 (de) * 2007-12-19 2017-08-17 Airbus Operations Gmbh Temperaturüberwachung eines Flugzeugs
JP4392446B2 (ja) 2007-12-21 2010-01-06 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム処理方法、ならびに、プログラム
US8217934B2 (en) * 2008-01-23 2012-07-10 Adobe Systems Incorporated System and methods for rendering transparent surfaces in high depth complexity scenes using hybrid and coherent layer peeling
US9131141B2 (en) * 2008-05-12 2015-09-08 Sri International Image sensor with integrated region of interest calculation for iris capture, autofocus, and gain control
US8243100B2 (en) * 2008-06-26 2012-08-14 Qualcomm Incorporated System and method to perform fast rotation operations
JP2012049848A (ja) * 2010-08-27 2012-03-08 Sony Corp 信号処理装置及び方法、並びにプログラム
CN102724398B (zh) * 2011-03-31 2017-02-08 联想(北京)有限公司 图像数据提供方法、组合方法及呈现方法
JP5977023B2 (ja) * 2011-11-07 2016-08-24 株式会社スクウェア・エニックス・ホールディングス 描画システム、プログラム、及び記録媒体
JP6181917B2 (ja) * 2011-11-07 2017-08-16 株式会社スクウェア・エニックス・ホールディングス 描画システム、描画サーバ、その制御方法、プログラム、及び記録媒体
CN104951260B (zh) * 2014-03-31 2017-10-31 云南北方奥雷德光电科技股份有限公司 在嵌入式Linux平台下基于Qt的混合界面的实现方法
CN106873935B (zh) * 2014-07-16 2020-01-07 三星半导体(中国)研究开发有限公司 用于生成电子终端的显示界面的显示驱动设备和方法
US9898804B2 (en) 2014-07-16 2018-02-20 Samsung Electronics Co., Ltd. Display driver apparatus and method of driving display
KR102412290B1 (ko) 2014-09-24 2022-06-22 프린스톤 아이덴티티, 인크. 생체측정 키를 이용한 모바일 장치에서의 무선 통신 장치 기능의 제어
CA2969331A1 (en) 2014-12-03 2016-06-09 Princeton Identity, Inc. System and method for mobile device biometric add-on
EP3095444A1 (en) * 2015-05-20 2016-11-23 Dublin City University A method of treating peripheral inflammatory disease
KR20180102637A (ko) 2016-01-12 2018-09-17 프린스톤 아이덴티티, 인크. 바이오메트릭 분석의 시스템 및 방법
US10373008B2 (en) 2016-03-31 2019-08-06 Princeton Identity, Inc. Systems and methods of biometric analysis with adaptive trigger
US10366296B2 (en) 2016-03-31 2019-07-30 Princeton Identity, Inc. Biometric enrollment systems and methods
CN106652007B (zh) * 2016-12-23 2020-04-17 网易(杭州)网络有限公司 虚拟海面渲染方法及系统
US10607096B2 (en) 2017-04-04 2020-03-31 Princeton Identity, Inc. Z-dimension user feedback biometric system
KR102573482B1 (ko) 2017-07-26 2023-08-31 프린스톤 아이덴티티, 인크. 생체 보안 시스템 및 방법

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0582875B1 (en) * 1992-07-27 2001-10-31 Matsushita Electric Industrial Co., Ltd. Apparatus for parallel image generation
JP2780575B2 (ja) * 1992-07-27 1998-07-30 松下電器産業株式会社 並列画像生成装置
US5367632A (en) * 1992-10-30 1994-11-22 International Business Machines Corporation Flexible memory controller for graphics applications
JPH06214555A (ja) * 1993-01-20 1994-08-05 Sumitomo Electric Ind Ltd 画像処理装置
US5392393A (en) * 1993-06-04 1995-02-21 Sun Microsystems, Inc. Architecture for a high performance three dimensional graphics accelerator
JP3527796B2 (ja) * 1995-06-29 2004-05-17 株式会社日立製作所 高速3次元画像生成装置および方法
US5815158A (en) * 1995-12-29 1998-09-29 Lucent Technologies Method and apparatus for viewing large ensembles of three-dimensional objects on a computer screen
US5821950A (en) * 1996-04-18 1998-10-13 Hewlett-Packard Company Computer graphics system utilizing parallel processing for enhanced performance
US5923333A (en) * 1997-01-06 1999-07-13 Hewlett Packard Company Fast alpha transparency rendering method
JPH10320573A (ja) * 1997-05-22 1998-12-04 Sega Enterp Ltd 画像処理装置及び画像処理方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9349075B2 (en) 2012-10-24 2016-05-24 Samsung Electronics Co., Ltd. Image processing apparatus and method for detecting transparent object in image
US10204287B2 (en) 2012-10-24 2019-02-12 Samsung Electronics Co., Ltd. Image processing apparatus and method for detecting transparent object in image

Also Published As

Publication number Publication date
AU2001272788A1 (en) 2002-02-05
JP2002109564A (ja) 2002-04-12
US20020080141A1 (en) 2002-06-27
WO2002009035A1 (en) 2002-01-31
TWI243703B (en) 2005-11-21
CN1244076C (zh) 2006-03-01
JP3466173B2 (ja) 2003-11-10
EP1303840A1 (en) 2003-04-23
CN1441940A (zh) 2003-09-10

Similar Documents

Publication Publication Date Title
KR20030012889A (ko) 병렬 z-버퍼 구성 및 투명도
US7081894B1 (en) Picture drawing apparatus and picture drawing method
US5877769A (en) Image processing apparatus and method
JPH0535913B2 (ko)
JP3514947B2 (ja) 3次元画像処理装置及び3次元画像処理方法
EP1306810A1 (en) Triangle identification buffer
KR910009102B1 (ko) 화상합성 장치
US20020050991A1 (en) Image processing system, device, method and computer program
US6172670B1 (en) Method and apparatus for simultaneous shape-dependent access to picture data stored at a plurality of addresses
US20020101435A1 (en) Apparatus and method for rendering antialiased image
EP0822520B1 (en) Method and apparatus for generating pictures
EP2676245B1 (en) Method for estimation of occlusion in a virtual environment
JP2003323339A (ja) メモリアクセス装置、半導体デバイス、メモリアクセス制御方法、コンピュータプログラム及び記録媒体
JP3548648B2 (ja) 描画装置及び描画方法
US6222548B1 (en) Three-dimensional image processing apparatus
JP3971448B2 (ja) 描画装置及び描画方法
JP3934111B2 (ja) 描画装置及び描画方法
JP2002109561A (ja) 画像処理システム、デバイス、方法及びコンピュータプログラム
EP1306811A1 (en) Triangle identification buffer

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid