KR20090040830A - Apparatus and method for rendering 3d graphic object - Google Patents

Apparatus and method for rendering 3d graphic object Download PDF

Info

Publication number
KR20090040830A
KR20090040830A KR1020080012669A KR20080012669A KR20090040830A KR 20090040830 A KR20090040830 A KR 20090040830A KR 1020080012669 A KR1020080012669 A KR 1020080012669A KR 20080012669 A KR20080012669 A KR 20080012669A KR 20090040830 A KR20090040830 A KR 20090040830A
Authority
KR
South Korea
Prior art keywords
objects
viewpoint
planes
bound box
vertices
Prior art date
Application number
KR1020080012669A
Other languages
Korean (ko)
Other versions
KR101407639B1 (en
Inventor
강병권
조성희
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US12/253,513 priority Critical patent/US8289320B2/en
Publication of KR20090040830A publication Critical patent/KR20090040830A/en
Application granted granted Critical
Publication of KR101407639B1 publication Critical patent/KR101407639B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/503Blending, e.g. for anti-aliasing

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

A 3D graphic rendering apparatus and a method thereof are provided to effectively perform the alpha blending for a semi-transparent object by sequentially arranging objects of the 3D GUI(Graphic User Interface). An object information extracting part(100) extracts bound box information for a plurality of objects and comprises an object coordinate extracting unit(110) and an object coordinate converting unit(120). The object coordinate extracting unit calculates the coordinates of a bound box for the object coordinate system with respect to a plurality of objects. The object coordinate converting unit converts the calculated coordinates of the bound box into the coordinates of the eye coordinate system. An object sorter(200) arranges a plurality of objects by using the extracted bound box information.

Description

3차원 그래픽 렌더링 장치 및 방법{Apparatus and method for rendering 3D Graphic object}Apparatus and method for rendering 3D Graphic object}

본 발명은 3차원 그래픽 렌더링 장치 및 방법에 관한 것으로, 보다 상세하게는 3차원 GUI의 오브젝트를 순차적으로 정렬하여 반투명한 오브젝트에 알파 블렌딩을 효과적으로 수행할 수 있는 3차원 그래픽 렌더링 장치 및 방법에 관한 것이다.The present invention relates to a three-dimensional graphics rendering apparatus and method, and more particularly to a three-dimensional graphics rendering apparatus and method capable of efficiently performing alpha blending on a semi-transparent object by sequentially aligning the objects of the three-dimensional GUI. .

일반적으로 화상을 그리기 위한 색상은 빨강(R), 초록(G), 파랑(B)의 3 가지로 구성될 수 있는데, 이러한 3 가지 색상에 '알파(Alpha)'라는 값을 추가적으로 포함하여 구성될 수 있다. In general, the color for drawing an image may be composed of three colors, red (R), green (G), and blue (B), and these three colors may be configured by additionally adding an alpha value. Can be.

이러한 알파 값(Alpha channel)(이하, 알파 채널이라고 한다)은 화상을 표현하는 각 픽셀에 대한 투명도를 나타내며 8 비트(Bit)로 0에서 255까지의 값으로 표현된다. 이때, 0은 완전히 투명한 상태이고, 255는 불투명한 상태를 의미한다. 알파 채널은 주로 유리 창이나 유리 컵과 같은 화상을 혼합할 때 투명한 효과를 표현하기 위해 사용되며, 이처럼 투명한 화상을 혼합하는 방법을 알파 블렌딩(Alpha blending)이라 한다.This alpha channel (hereinafter referred to as alpha channel) represents transparency for each pixel representing an image and is expressed as a value from 0 to 255 in 8 bits (Bit). In this case, 0 is completely transparent and 255 is opaque. The alpha channel is mainly used to express transparent effects when mixing images such as glass windows or glass cups. This method of blending transparent images is called alpha blending.

알파 블렌딩은 최근 임베디드 시스템(Embeded System)에서 한 좌표축에 대해 깊이가 얕고 서로 근접해있는 반투명한 3차원 오브젝트들을 메뉴 등과 같은 그래픽 유저 인터페이스(Graphic User Interface)(이하, GUI라고 한다)로 표현하는데 사용되고 있다. 즉, 알파 블렌딩은 시점에서 서로 겹쳐 보이는 반투명 오브젝트들의 색상을 혼합하여 렌더링(Rendering)하는 기법이다. 반투명한 하나의 오브젝트가 시점에서 보이는 색상은 자신의 색상과 자신의 투명도에 해당하는 비율로 뒤에 투과되어 보이는 오브젝트의 색상을 합성하여 계산할 수 있다.Alpha blending has recently been used to represent semi-transparent three-dimensional objects that are shallow and close to one coordinate axis in an embedded system with a graphical user interface (hereinafter referred to as a GUI) such as a menu. . In other words, alpha blending is a technique of mixing and rendering colors of translucent objects overlapping each other at a viewpoint. The color of one translucent object seen from the viewpoint can be calculated by combining the color of the visible object transmitted behind it at a ratio corresponding to its own color and its transparency.

알파 블렌딩은 오브젝트들이 그려지는 순서에 따라 그 결과가 달라지기 때문에 반투명한 3차원 오브젝트들은 반드시 시점의 위치를 기준으로 멀리 존재하는 오브젝트부터 순차적으로 렌더링을 해야 정상적인 결과를 얻을 수 있다. 즉, 색상을 합성하는 순서가 바뀌게 되면 전혀 다른 결과가 나오기 때문에, 정확한 알파 블렌딩을 위해서는 오브젝트를 그리는 순서가 매우 중요하다 할 수 있다.Since alpha blending has different results depending on the order in which objects are drawn, semi-transparent 3D objects must be rendered sequentially from objects far away based on the position of the viewpoint to obtain normal results. In other words, if the order of compositing colors is changed, the result is completely different, so the order of drawing objects is very important for accurate alpha blending.

이를 위해 오브젝트를 순차적으로 정렬하는 다양한 정렬 기법들이 개발되어 왔다. 예를 들면, 페인터 알고리즘(Painter's algorithm)은 시점에서 겹쳐 보이는 오브젝트들 중 어떤 것을 앞에 그릴 것인가를 판별하기 위한 알고리즘으로서, 수학적으로 정확한 결과를 만들 수 있지만, 평면으로 이루어진 폴리곤 단위의 정렬을 수행하기 때문에 사용된 폴리곤 수에 그 성능이 매우 크게 좌우된다. 또한, 입체적인 3차원 오브젝트의 경우, 전후 판별을 위한 계산이 매우 복잡하기 때문에 실시간 렌더링에 적용하기 어려운 단점이 있다.To this end, various sorting techniques for sequential ordering of objects have been developed. For example, the Painter's algorithm is an algorithm for determining which of the overlapping objects to draw in front, which can produce mathematically accurate results, but because it performs polygonal alignment of planes. The performance depends very much on the number of polygons used. In addition, in the case of three-dimensional three-dimensional object, it is difficult to apply to real-time rendering because the calculation for the front and rear discrimination is very complicated.

또 다른 예로, BSP tree, K-D tree 등의 공간 분할 자료 구조를 이용한 기법들이 있다. 이러한 기법들은 전경에 배치된 오브젝트들을 3차원 평면을 통해 전후 로 나누고, 이러한 관계를 트리로 구성한 자료 구조이다. 이러한 자료 구조를 이용한 기법은 전처리 과정에서 트리가 구성되면 런타임(Run-Time)에 시점의 변화에 따라 매우 빠른 속도로 오브젝트들을 정렬해낼 수 있다는 장점이 있다. 하지만, 오브젝트들의 위치가 바뀌게 되면 매번 트리를 재구성해야 하기 때문에 3차원 GUI와 같이 오브젝트들의 애니메이션을 수반하는 어플리케이션에는 적용하기 어려운 기법이라 할 수 있다.As another example, there are techniques using spatial partitioning data structures such as BSP tree and K-D tree. These techniques are data structures that divide objects placed in the foreground back and forth through a three-dimensional plane and organize these relationships into a tree. The technique using this data structure has the advantage that if the tree is constructed during the preprocessing, the objects can be sorted at a very high speed according to the change of viewpoint at run-time. However, this technique is difficult to apply to an application that involves animation of objects, such as a three-dimensional GUI, because the tree must be reconstructed each time the positions of the objects change.

따라서, 오브젝트를 정렬하는 데 있어서 그 계산량을 대폭 감소시켜 실시간에 정확한 알파 블렌딩을 구현하여 제한적인 성능을 가지는 임베디드 시스템에 적용할 수 있는 렌더링 장치가 필요하다.Accordingly, there is a need for a rendering apparatus that can be applied to an embedded system having limited performance by realizing accurate alpha blending in real time by greatly reducing the amount of computation in aligning objects.

본 발명은 상기한 문제점을 개선하기 위해 고안된 것으로, 본 발명이 해결하고자 하는 과제는 3차원 GUI의 반투명한 오브젝트들에 대한 알파 블렌딩을 효과적으로 수행할 수 있고 제한적인 성능을 가지는 임베디드 시스템에 적용할 수 있는 3차원 그래픽 렌더링 장치 및 방법을 제공하는 것이다.The present invention has been devised to solve the above problems, and the problem to be solved by the present invention can be effectively applied to the embedded system having limited performance and alpha blending on the translucent objects of the 3D GUI. It is to provide a three-dimensional graphics rendering apparatus and method.

본 발명의 기술적 과제는 이상에서 언급한 것들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제는 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.Technical problem of the present invention is not limited to those mentioned above, another technical problem that is not mentioned will be clearly understood by those skilled in the art from the following description.

상기 과제를 달성하기 위하여, 본 발명의 실시예에 따른 3차원 그래픽 렌더링 장치는, 복수의 오브젝트 각각에 대하여 바운드 박스(Bound box) 정보를 추출하는 오브젝트 정보 추출부와, 상기 추출된 바운드 박스 정보를 이용하여 상기 복수의 오브젝트를 정렬하는 오브젝트 정렬부 및 시점(Visual Point)으로부터 원거리의 오브젝트부터 상기 정렬된 복수의 오브젝트를 순차적으로 렌더링(Rendering)하는 렌더링부를 포함한다.In order to achieve the above object, the three-dimensional graphic rendering apparatus according to an embodiment of the present invention, an object information extraction unit for extracting the bound box (bound box) information for each of a plurality of objects, and the extracted bound box information And an object aligning unit for aligning the plurality of objects using the object alignment unit and a rendering unit for sequentially rendering the aligned plurality of objects from a remote object from a visual point.

상기 과제를 달성하기 위하여, 본 발명의 실시예에 따른 3차원 그래픽 렌더링 방법은, 복수의 오브젝트 각각에 대하여 바운드 박스(Bound box) 정보를 추출하는 단계와, 상기 추출된 바운드 박스 정보를 이용하여 상기 복수의 오브젝트를 정렬하는 단계 및 시점(Visual Point)으로부터 원거리의 오브젝트부터 상기 정렬된 복수의 오브젝트를 순차적으로 렌더링(Rendering)하는 단계를 포함한다.In order to achieve the above object, a three-dimensional graphics rendering method according to an embodiment of the present invention, extracting the bound box information for each of a plurality of objects, and using the extracted bound box information Arranging a plurality of objects and sequentially rendering the plurality of sorted objects from an object distant from a visual point.

기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Specific details of other embodiments are included in the detailed description and the drawings.

본 발명의 3차원 그래픽 렌더링 장치 및 방법에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다.According to the three-dimensional graphics rendering apparatus and method of the present invention has one or more of the following effects.

첫째, 3차원 GUI를 구성하는 오브젝트들을 정렬하는 데 있어서 그 계산량을 대폭 감소시켜 실시간으로 정확한 알파 블렌딩을 구현할 수 있는 장점이 있다.First, in arranging the objects constituting the 3D GUI, the computational amount is greatly reduced, and thus, an accurate alpha blending can be realized in real time.

둘째, 3차원 GUI를 구성하는 오브젝트들을 정렬하는 데 있어서 그 계산량을 대폭 감소시켜 제한적인 성능을 가지는 임베디드 시스템에 적용할 수 있는 장점이 있다.Second, there is an advantage that can be applied to the embedded system having a limited performance by greatly reducing the amount of computation in the alignment of the objects constituting the three-dimensional GUI.

본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention and methods for achieving them will be apparent with reference to the embodiments described below in detail with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but can be implemented in various different forms, and only the embodiments make the disclosure of the present invention complete, and the general knowledge in the art to which the present invention belongs. It is provided to fully inform the person having the scope of the invention, which is defined only by the scope of the claims. Like reference numerals refer to like elements throughout.

이하, 본 발명의 실시예들에 의하여 3차원 그래픽 렌더링 장치 및 방법을 설명하기 위한 도면들을 참고하여 본 발명에 대해 설명하도록 한다.Hereinafter, the present invention will be described with reference to the drawings for explaining a 3D graphic rendering apparatus and method according to embodiments of the present invention.

이 때, 처리 흐름도 도면들의 각 블록과 흐름도 도면들의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도 블록(들)에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 흐름도 블록(들)에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도 블록(들)에서 설명된 기능들을 실행하기 위한 단 계들을 제공하는 것도 가능하다.At this point, it will be understood that each block of the flowchart illustrations and combinations of flowchart illustrations may be performed by computer program instructions. Since these computer program instructions may be mounted on a processor of a general purpose computer, special purpose computer, or other programmable data processing equipment, those instructions executed through the processor of the computer or other programmable data processing equipment may be described in flow chart block (s). It creates a means to perform the functions. These computer program instructions may be stored in a computer usable or computer readable memory that can be directed to a computer or other programmable data processing equipment to implement functionality in a particular manner, and thus the computer usable or computer readable memory. It is also possible for the instructions stored in to produce an article of manufacture containing instruction means for performing the functions described in the flowchart block (s). Computer program instructions may also be mounted on a computer or other programmable data processing equipment, such that a series of operating steps may be performed on the computer or other programmable data processing equipment to create a computer-implemented process to create a computer or other programmable data. Instructions that perform processing equipment may also provide steps for performing the functions described in the flowchart block (s).

또한, 각 블록은 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실행 예들에서는 블록들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.In addition, each block may represent a portion of a module, segment, or code that includes one or more executable instructions for executing a specified logical function (s). It should also be noted that in some alternative implementations, the functions noted in the blocks may occur out of order. For example, the two blocks shown in succession may in fact be executed substantially concurrently, or the blocks may sometimes be executed in the reverse order, depending on the corresponding function.

도 1은 본 발명의 일실시예에 따른 3차원 그래픽 렌더링 장치의 구성을 나타내는 블록도이다.1 is a block diagram showing the configuration of a three-dimensional graphics rendering apparatus according to an embodiment of the present invention.

본 발명의 일실시예에 따른 3차원 그래픽 렌더링 장치(1)는, 오브젝트 정보 추출부(100), 오브젝트 정렬부(200) 및 렌더링부(300)를 포함할 수 있다.The 3D graphic rendering apparatus 1 according to the exemplary embodiment of the present invention may include an object information extracting unit 100, an object arranging unit 200, and a rendering unit 300.

오브젝트 정보 추출부(100)는 복수의 오브젝트 각각에 대하여 바운드 박스(Bound box) 정보를 추출하는 역할을 할 수 있다. 오브젝트 정보 추출부(100)는 복수의 오브젝트 각각에 대하여 오브젝트 좌표계(Object Coordinate)에 대한 바운드 박스의 좌표를 구하는 오브젝트 좌표 추출부(110)와, 구해진 바운드 박스의 좌표를 눈 좌표계(Eye Coordinate)에 대한 좌표로 변환하는 오브젝트 좌표 변환부(120)를 포함할 수 있다.The object information extracting unit 100 may serve to extract bound box information for each of the plurality of objects. The object information extraction unit 100 obtains the coordinates of the bound box with respect to the object coordinate system (Object Coordinate) for each of the plurality of objects, and the coordinates of the obtained bound box in the eye coordinate system (Eye Coordinate). It may include an object coordinate converter 120 to convert the coordinates for the.

오브젝트 정렬부(200)는 오브젝트 정보 추출부(100)로부터 추출된 바운드 박스 정보를 이용하여 복수의 오브젝트를 정렬하는 역할을 할 수 있다. 오브젝트 정렬부(200)는 두 개의 오브젝트가 시점에서 겹쳐 보이는지 판단하는 오브젝트 중복 판단부(210)와, 판단 결과, 두 개의 오브젝트가 시점에서 겹쳐 보이는 경우, 두 개의 오브젝트 각각으로부터 기준 평면을 추출하는 기준 평면 추출부(220) 및 추출된 기준 평면을 이용하여 두 개의 오브젝트의 시점으로부터의 전후 관계를 판단하여 정렬하는 오브젝트 위치 판단부(230)를 포함할 수 있다.The object arranging unit 200 may serve to align a plurality of objects using the bound box information extracted from the object information extracting unit 100. The object aligning unit 200 is an object overlap determination unit 210 that determines whether two objects overlap at a viewpoint, and when the determination results, when two objects overlap at a viewpoint, a reference for extracting a reference plane from each of the two objects. The plane extractor 220 may include an object position determiner 230 that determines and aligns a front-rear relationship from two viewpoints using the extracted reference plane.

렌더링부(300)는 정렬된 복수의 오브젝트를 시점으로부터 멀리 위치하는 오브젝트부터 순차적으로 렌더링(Rendering)하는 역할을 할 수 있다.The renderer 300 may serve to sequentially render the plurality of aligned objects from an object located far from the viewpoint.

한편, 본 발명의 일실시예에 따른 3차원 그래픽 렌더링 장치(1)는 오브젝트 정보 추출부(100), 오브젝트 정렬부(200) 및 렌더링부(300)의 동작을 제어하는 제어부(400)를 더 포함할 수 있다.Meanwhile, the 3D graphic rendering apparatus 1 according to an exemplary embodiment of the present invention further includes a controller 400 that controls operations of the object information extractor 100, the object aligner 200, and the renderer 300. It may include.

또한, 도시되지는 않았으나, 한편, 본 발명의 일실시예에 따른 개인 3차원 그래픽 렌더링 장치(1)는 저장부와 디스플레이부를 더 포함할 수 있다.In addition, although not shown, the personal three-dimensional graphics rendering apparatus 1 according to an embodiment of the present invention may further include a storage unit and a display unit.

저장부는 오브젝트의 바운드 박스 정보, 변환된 좌표 정보, 오브젝트의 정렬 정보 등 각종 정보를 저장하는 역할을 할 수 있다. 저장부는 하드 디스크, 플래시 메모리, CF 카드(Compact Flash Card), SD 카드(Secure Digital Card), SM 카드(Smart Media Card), MMC 카드(Multimedia Card) 또는 메모리 스틱(Memory Stick) 등 정보의 입출력이 가능한 모듈로서 개인 폰트 생성 장치(100)의 내부에 구비되어 있을 수도 있고, 별도의 장치에 구비되어 있을 수도 있다.The storage unit may store various types of information such as bound box information of the object, transformed coordinate information, and alignment information of the object. The storage unit can input / output information such as a hard disk, a flash memory, a Compact Flash Card, a Secure Digital Card, an SM Card, a MMC Card, or a Memory Stick. As a possible module, it may be provided inside the personal font generating apparatus 100, or may be provided in a separate device.

디스플레이부는 입력된 문자의 변형된 궤적을 화면에 표시하는 역할을 할 수 있다. 디스플레이부로 음극선관(CRT, Cathode Ray Tube), 액정 화면(LCD, Liquid Crystal Display), 발광 다이오드(LED, Light-Emitting Diode), 유기 발광 다이오 드(OLED, Organic Light-Emitting Diode) 또는 플라즈마 디스플레이(PDP, Plasma Display Panel) 등의 다양한 디스플레이 장치가 사용될 수 있다.The display unit may serve to display the modified trajectory of the input character on the screen. Cathode Ray Tube (CRT), Liquid Crystal Display (LCD), Light-Emitting Diode (LED), Organic Light-Emitting Diode (OLED), or Plasma Display (CRT) Various display devices such as a plasma display panel (PDP) may be used.

상기와 같이 구성되는 본 발명의 일실시예에 따른 3차원 그래픽 렌더링 장치의 각 모듈을 이용한 렌더링 방법을 구체적으로 설명하면 다음과 같다.Hereinafter, a rendering method using each module of the 3D graphic rendering apparatus according to an embodiment of the present invention configured as described above will be described in detail.

도 2는 본 발명의 일실시예에 따른 3차원 그래픽 렌더링 장치(1)를 이용한 렌더링 방법을 나타내는 순서도이다.2 is a flowchart illustrating a rendering method using the 3D graphics rendering apparatus 1 according to an embodiment of the present invention.

먼저, 오브젝트 정보 추출부(100)는 3차원 GUI를 구성하고 있는 복수의 오브젝트 각각에 대하여 바운드 박스(Bound box) 정보를 추출할 수 있다. 이를 위해 오브젝트 좌표 추출부(110)는 복수의 오브젝트 각각에 대하여 바운드 박스의 좌표 정보를 추출하고(S501), 오브젝트 좌표 변환부(120)는 추출된 바운드 박스의 좌표를 눈 좌표계에 대한 좌표로 변환할 수 있다(S502).First, the object information extracting unit 100 may extract bound box information for each of a plurality of objects constituting the 3D GUI. To this end, the object coordinate extraction unit 110 extracts the coordinate information of the bound box for each of the plurality of objects (S501), and the object coordinate transformation unit 120 converts the coordinates of the extracted bound box into coordinates for the eye coordinate system. It may be (S502).

도 3은 오브젝트 좌표 추출부에서 오브젝트의 바운드 박스에서 좌표 정보를 추출하는 예를 나타내는 도면이고, 도 4는 오브젝트 좌표 변환부에서 좌표를 변환하는 예를 나타내는 도면이다.3 is a diagram illustrating an example of extracting coordinate information from a bound box of an object in an object coordinate extractor, and FIG. 4 is a diagram illustrating an example of transforming coordinates in an object coordinate converter.

오브젝트(101)의 바운드 박스(102)는 3차원 GUI를 구성하는 오브젝트(101)를 둘러싸는 직육면체의 형상을 가지며, 6 개의 평면(Plane)(P0 내지 P5)과 8 개의 꼭지점(Vertex)(V0 내지 V7)으로 구성될 수 있다.The bound box 102 of the object 101 has a rectangular parallelepiped shape surrounding the object 101 constituting the three-dimensional GUI, and includes six planes P0 to P5 and eight vertices V0. To V7).

바람직하게는, 오브젝트(101)의 바운드 박스(102) 정보는 오브젝트 좌표계(103)의 세 축에 직교하는 평면들로 둘러싸인 AABB(Axis-Aligned Bound Box)의 형태로 구성될 수 있다. 따라서, 오브젝트(101)가 오브젝트 좌표계(103)에서 Z 축 에 직교하는 XY 평면에 평행한 두 개의 평면 P0(Z = z1), P5(Z = z2), X 축에 직교하는 YZ 평면에 평행한 두 개의 평면 P4(X = x1), P2(X = x2) 및 Y축에 직교하는 ZX 평면에 평행한 두 개의 평면 P1(Y = y1), P4(Y = y2)에 둘러싸인 형태인 경우에는, 바운드 박스(102)의 좌표 정보는 두 개의 점 V0(x1, y1, z1), V6(x2, y2, z2)으로 완전히 정의될 수 있다.Preferably, the bound box 102 information of the object 101 may be configured in the form of Axis-Aligned Bound Box (AABB) surrounded by planes orthogonal to three axes of the object coordinate system 103. Thus, the object 101 is parallel to the YZ plane orthogonal to the two planes P0 (Z = z1), P5 (Z = z2), which is parallel to the XY plane orthogonal to the Z axis in the object coordinate system 103. If it is surrounded by two planes P4 (X = x1), P2 (X = x2) and two planes P1 (Y = y1) and P4 (Y = y2) parallel to the ZX plane orthogonal to the Y axis, The coordinate information of the bound box 102 may be completely defined by two points V0 (x1, y1, z1) and V6 (x2, y2, z2).

한편, 오브젝트(101)의 바운드 박스(102)의 좌표 정보는 런타임(Run-Time) 시에 계산될 필요는 없고, 오브젝트(101)를 생성할 때에 오브젝트(101)의 다른 정보와 함께 저장될 수 있다. 따라서, 오브젝트(101)가 실제로 3차원 GUI를 구성할 때에 화면 상에 로딩된 오브젝트(101)의 정보에서 바운드 박스(102)의 좌표 정보 값을 가져오는 것만으로 처리될 수 있다.Meanwhile, the coordinate information of the bound box 102 of the object 101 need not be calculated at run-time, and may be stored together with other information of the object 101 when generating the object 101. have. Therefore, when the object 101 actually constructs a three-dimensional GUI, it can be processed by simply bringing the coordinate information value of the bound box 102 from the information of the object 101 loaded on the screen.

오브젝트 좌표 추출부(110)에서 바운드 박스(102)의 좌표 정보를 추출하고 나면, 오브젝트 좌표 변환부(120)는 추출한 바운드 박스(102)의 좌표 정보를 눈 좌표계(Eye-Coordinate)를 기준으로 변환할 수 있다(S502). 눈 좌표계(104)는 사용자나 카메라 등의 영상 장치의 위치를 기준으로 생성된 좌표계로서, GUI 상에서 실제로 오브젝트가 보여지는 좌표계를 의미한다. 따라서, 각각의 오브젝트가 GUI를 구성하기 위해 어떠한 위치에 배열되었는지 알기 위해서는 각각의 오브젝트의 바운드 박스(102) 정보를 눈 좌표계(104)를 기준으로 변환할 필요성이 있다.After the coordinate information of the bound box 102 is extracted by the object coordinate extracting unit 110, the object coordinate converting unit 120 converts the extracted coordinate information of the bound box 102 based on an eye-coordinate system. It may be (S502). The eye coordinate system 104 is a coordinate system generated based on the position of an image device such as a user or a camera, and refers to a coordinate system in which an object is actually viewed on a GUI. Thus, in order to know where each object is arranged to construct a GUI, it is necessary to convert the bound box 102 information of each object with respect to the eye coordinate system 104.

도 4에 도시된 바와 같이, 오브젝트 좌표 변환부(120)는 직육면체의 형상을 가지는 바운드 박스(102)의 8개의 꼭지점(V1 내지 V7) 각각에 대하여 눈 좌표계(104)에 해당하는 꼭지점(V1' 내지 V7')의 좌표로 변환할 수 있다. 또한, 변환된 각 꼭지점 정보를 이용하여 바운드 박스(102)를 구성하는 6 개의 평면에 대한 평면 방정식을 계산할 수 있다. 평면 방정식은 이후에 두 개의 오브젝트가 겹치는지 판단하는 데에 사용될 수 있다.As shown in FIG. 4, the object coordinate transformation unit 120 vertices V1 ′ corresponding to the eye coordinate system 104 for each of the eight vertices V1 to V7 of the bound box 102 having a rectangular parallelepiped shape. To V7 '). In addition, the plane equations for the six planes constituting the bounding box 102 may be calculated using the converted vertex information. The planar equation can then be used to determine if two objects overlap.

하나의 좌표계 상의 점에 해당하는 다른 좌표계 상의 점의 좌표를 구하는 방법이나, 직육면체의 한 면을 이루는 4개의 꼭지점으로부터 평명 방정식을 구하는 방법은 주지 사실이므로 여기서는 설명을 생략한다.The method of obtaining coordinates of a point on another coordinate system corresponding to a point on one coordinate system, or a method of obtaining a square equation from four vertices of one side of a rectangular parallelepiped is well known.

오브젝트 정렬부(200)는 오브젝트 정보 추출부(100)에서 추출된 바운드 박스 정보를 이용하여 복수의 오브젝트를 정렬할 수 있다. 즉, 오브젝트 정렬부(200)는 복수의 오브젝트를 눈 좌표계의 시점으로부터 겹쳐 보이는 오브젝트 단위로 시점으로부터 떨어진 위치에 따라 정렬할 수 있다. 여기서, 시점(Visual Point)은 사용자나 카메라 등 영상 장치가 위치하는 곳으로서 눈 좌표계에서의 원점(Origin)을 의미할 수 있다.The object sorter 200 may sort the plurality of objects using the bound box information extracted by the object information extractor 100. That is, the object aligning unit 200 may align the plurality of objects according to positions away from the viewpoint in object units overlapping from the viewpoint of the eye coordinate system. Here, the visual point is a place where an image device such as a user or a camera is located and may mean an origin in an eye coordinate system.

예를 들어, 3차원 GUI를 구성하는 N 개의 오브젝트가 있다고 가정하면, N 개의 오브젝트 중 두 개의 오브젝트 즉, i번째(i는 자연수)인 제1 오브젝트와 j번째(j는 자연수)인 제2 오브젝트를 비교하여 시점으로부터의 전후 관계를 판단하여 정렬할 수 있다. 이와 같이, 두 개의 오브젝트에 대해 시점으로부터 전후 관계를 판단하여 정렬하는 방법으로 전체 N 개의 오브젝트 내 모든 오브젝트에 대하여 반복적으로 수행할 수 있다. 즉, 전체 오브젝트 리스트를 O = {O1, O2, ..., ON}이라고 하면, O1과 O2, O1과 O3, ..., O1과 ON, O2와 O3, O2와 O4, ..., ON -1과 ON에 대하여 반복적으로 전후 관계를 판단하고 정렬을 수행하게 된다.For example, suppose that there are N objects constituting the three-dimensional GUI, two of the N objects, that is, the first object i th (i is a natural number) and the second object j th (j is a natural number) Compare and determine the front and rear relationship from the viewpoint can be sorted. As described above, the object may be repeatedly performed on all objects in the N objects in a manner that the front and rear relationships of the two objects are determined and aligned. That is, if the entire object list is O = {O 1 , O 2 , ..., O N }, O 1 and O 2 , O 1 and O 3 , ..., O 1 and O N , O 2 and O 3 , O 2 and O 4 , ..., O N -1 and O N iteratively determine the front and rear relationship and perform the alignment.

이하, 제1 오브젝트와 제2 오브젝트를 비교하여 정렬하는 방법을 구체적으로 설명하기로 한다.Hereinafter, a method of comparing and sorting the first object and the second object will be described in detail.

먼저, 오브젝트 중복 판단부(210)는 제1 오브젝트와 제2 오브젝트가 시점에서 겹쳐 보이는지 판단할 수 있다(S503). 이는 여러 오브젝트가 겹쳐지는 경우에만 알파 블렌딩을 위한 정렬을 할 필요가 있기 때문이다. 만약, 특정 오브젝트에 대하여 겹쳐지는 오브젝트가 존재하지 않는 경우, 그 오브젝트는 오브젝트의 위치에 따른 순서에 관계없이 렌더링 되더라도 알파 블렌딩의 결과에 영향을 미치지 않으므로 정렬할 필요가 없다.First, the object overlap determination unit 210 may determine whether the first object and the second object overlap at a viewpoint (S503). This is because you need to align for alpha blending only when several objects overlap. If there is no overlapping object for a particular object, the object does not need to be sorted because it does not affect the result of alpha blending even if the object is rendered regardless of the order according to the position of the object.

본 발명의 일실시예에 따른 오브젝트 중복 판단부(210)에서 제1 오브젝트와 제2 오브젝트가 시점에서 겹쳐 보이는지 판단하는 일실시예를 설명하면 다음과 같다.An embodiment in which the object overlap determination unit 210 determines whether the first object and the second object overlap at a viewpoint will be described below.

우선, 두 오브젝트의 바운드 박스를 구성하는 평면들 중에서 시점에서 보이는 평면들을 찾을 수 있다. 도 5에 도시된 바와 같이, 오브젝트의 바운드 박스는 직육면체의 형태를 가지기 때문에 최소 1 개(도 5의 (a))에서 최대 3 개(도 5의 (c))의 평면이 보일 수 있다. 시점에서 보이는 평면을 찾기 위해 각 평면과 시점의 위치 관계를 고려할 수 있는데, 시점이 평면의 앞쪽에 있는 경우를 시점에서 보이는 평면으로 볼 수 있다. 상술한 바와 같이, 오브젝트 좌표 변환부(120)에서 구한 6 개의 평면 방정식은 눈 좌표계에서 계산된 것이고, 시점은 눈 좌표계의 원점에 위치하기 때문에 각각의 평면 방정식 Ax+By+Cz+D=0에서 D값의 부호만 비교함으로써 쉽게 판별할 수 있다.First, among the planes constituting the bound boxes of the two objects, planes visible from the viewpoint may be found. As shown in FIG. 5, since the bound box of the object has a rectangular parallelepiped shape, at least one plane (FIG. 5A) to at most three planes (FIG. 5C) may be seen. In order to find a plane visible from the viewpoint, the positional relationship between each plane and the viewpoint may be considered. A case in which the viewpoint is in front of the plane may be viewed as a plane viewed from the viewpoint. As described above, the six plane equations obtained by the object coordinate conversion unit 120 are calculated in the eye coordinate system, and since the viewpoint is located at the origin of the eye coordinate system, each plane equation Ax + By + Cz + D = 0 It can be easily determined by comparing only the sign of the D value.

시점에서 보이는 평면들이 결정되면, 그 평면들의 외곽을 이루는 꼭지점들을 찾아낼 수 있다. 시점에서 보이는 평면들의 개수에 따라 평면들의 외곽을 이루는 꼭지점들의 개수가 결정될 수 있다. 예를 들어, 도 5의 예를 참조하면, 시점에서 보이는 평면이 1 개인 경우(도 5의 (a))에는 4 개의 꼭지점들로 이루어진 사각형을 형성할 수 있고, 평면이 2개(도 5의 (b)) 또는 3개(도 5의 (c))인 경우에는 6개의 꼭지점들로 이루어진 사각형 또는 육각형이 형성될 수 있다.Once the planes visible from the viewpoint are determined, the vertices that surround the planes can be found. The number of vertices that form the outline of the planes may be determined according to the number of planes visible from the viewpoint. For example, referring to the example of FIG. 5, when there is only one plane viewed from the viewpoint (FIG. 5A), a quadrangle having four vertices may be formed, and two planes may be formed (FIG. 5 of FIG. 5). In the case of (b)) or three ((c) of FIG. 5), a rectangle or a hexagon consisting of six vertices may be formed.

바람직하게는, 시점에서 보이는 평면들과 이들 평면의 외곽을 이루는 꼭지점들의 관계를 기록한 룩업 테이블(Lookup Table)을 이용할 수 있다.Preferably, a lookup table that records the relationship between the planes visible from the viewpoint and the vertices that form the outer edges of the planes may be used.

도 6은 시점에서 보이는 평면들과 이들 평면의 외곽을 이루는 꼭지점들의 관계를 기록한 룩업 테이블의 예를 나타내는 도면이다.FIG. 6 is a diagram illustrating an example of a lookup table that records a relationship between planes visible from a viewpoint and vertices forming an outline of the planes.

룩업 테이블을 만들기 위해, 오브젝트의 바운드 박스를 구성하는 각각의 평면들과 평면을 이루고 있는 각각의 꼭지점에 대해 일정한 순서로 번호가 부여될 수 있다. 그리고, 시점에서 보이는 평면들에 대하여 그 외곽을 이루는 꼭지점들의 번호들로 하나의 인덱스(Index)를 생성할 수 있다. 도 3의 예에서는 바운드 박스의 6개의 평면에 P0 내지 P5까지, 8개의 꼭지점에 V0 내지 V7까지 번호를 부여한 것을 볼 수 있다.To create a lookup table, numbers may be numbered in a certain order for each of the planes that make up the bound box of the object and each of the vertices that are in plane. In addition, one index may be generated with the numbers of the vertices that form the outline with respect to the planes visible from the viewpoint. In the example of FIG. 3, six planes of the bound box are numbered from P0 to P5 and eight vertices from V0 to V7.

예를 들어, 도 5 및 도 6에 도시된 바와 같이, 시점에서 보이는 평면이 P0인 경우에는, 4 개의 꼭지점 V0, V1, V2, V3이 평면의 외곽을 이루는 꼭지점이 될 수 있다. 또 다른 예로, 시점에서 보이는 평면이 P0과 P1인 경우, 6 개의 꼭지점 V0, V1, V5, V6, V2, V3이 평면들의 외곽을 이루는 꼭지점이 될 수 있다. 또 다른 예로, 시점에서 보이는 평면이 P0, P1, P2인 경우, 6 개의 꼭지점 V0, V1, V5, V6, V7, V3이 평면들의 외곽을 이루는 꼭지점이 될 수 있다. 주의할 것은, 도 3에 도시된 바와 같이, 바운드 박스의 평면 0과 평행하게 마주 보는 평면 5는 시점에서 동시에 보일 수 없으므로, 이러한 평면들은 제외하고 고려되어야 한다는 것이다.For example, as illustrated in FIGS. 5 and 6, when the plane viewed from the viewpoint is P0, four vertices V0, V1, V2, and V3 may be vertices that form an outline of the plane. As another example, when the planes visible from the viewpoint are P0 and P1, six vertices V0, V1, V5, V6, V2, and V3 may be vertices that form the outline of the planes. As another example, when the planes viewed from the viewpoint are P0, P1, and P2, six vertices V0, V1, V5, V6, V7, and V3 may be vertices that form the outline of the planes. Note that, as shown in FIG. 3, the plane 5 facing parallel to plane 0 of the bound box cannot be seen at the same time at the point of view, so these planes should be considered except.

따라서, 시점에서 보이는 평면들의 인덱스와 그에 대응하여 평면들의 외곽을 이루는 꼭지점 번호들의 리스트는 총 26 개의 항목을 갖는 룩업 테이블로 구성될 수 있다. 한편, 이러한 룩업 테이블은 오브젝트 정보 추출부(100)에서 오브젝트로부터 바운드 박스 정보를 추출할 때에 미리 작성될 수도 있다.Accordingly, the index of planes visible from the viewpoint and the list of vertex numbers that correspond to the planes corresponding to the planes may be composed of a lookup table having a total of 26 items. The lookup table may be created in advance when the object information extractor 100 extracts the bound box information from the object.

시점에서 보이는 평면들의 외곽을 이루는 꼭지점들이 결정되면, 선택된 꼭지점 리스트들의 각 꼭지점들을 눈 좌표계에서 깊이 축, 예를 들어 Z 축에 수직인 임의의 평면에 투영하여 도 7에서와 같이 시점에서 보이는 2차원 형태의 다각형으로 변환할 수 있다.Once the vertices that outline the planes visible from the viewpoint are determined, each vertex of the selected vertex lists is projected onto any plane perpendicular to the depth axis, e. Can be converted to a polygon of shape.

두 개의 오브젝트에 대해 얻어진 2차원 다각형이 겹치는지 판단할 수 있다. 두 개의 2차원 다각형이 겹치는지 판단하기 위해 스캔라인(Scanline) 판별법 등 주지의 방법을 사용할 수 있다. 만약, 두 개의 2차원 다각형이 겹쳐진다면 두 개의 오브젝트는 시점에서 겹쳐 보이는 오브젝트인 것으로 판단할 수 있다.It may be determined whether the two-dimensional polygons obtained for the two objects overlap. In order to determine whether two two-dimensional polygons overlap, a known method such as a scanline discrimination method may be used. If two two-dimensional polygons overlap, the two objects may be determined to be overlapping objects at the viewpoint.

이상, 본 발명의 일실시예에 따른 오브젝트 중복 판단부(210)에서 제1 오브젝트와 제2 오브젝트가 시점에서 겹쳐 보이는지 판단하는 일실시예를 설명하였으나, 이에 한정되지 않으며 당업자에 의해 변경 가능하다.As described above, an embodiment in which the object overlap determination unit 210 determines whether the first object and the second object overlap at a viewpoint has been described, but is not limited thereto and may be changed by those skilled in the art.

오브젝트 중복 판단부(210)에서 제1 오브젝트와 제2 오브젝트가 시점에서 겹쳐 보인다고 판단된 경우에는, 기준 평면 추출부(220)는 시점에서 가까운 오브젝트를 찾기 위해 제1 오브젝트 및 제2 오브젝트로부터 기준 평면을 추출할 수 있다(S504). 기준 평면은 제1 및 제2 오브젝트 중 어느 하나의 오브젝트의 바운드 박스를 구성하는 6 개의 평면들 중에서 다른 오브젝트의 바운드 박스를 구성하는 8 개의 꼭지점이 모두 그 평면의 앞 쪽에 위치하게 되는 평면을 의미할 수 있다. 이 때, 평면의 앞 쪽이란 평면의 법선 벡터의 방향을 의미한다. 오브젝트의 바운드 박스가 직육면체이기 때문에 3차원 공간 상의 두 직육면체 사이에는 이러한 기준 평면이 최소 1 개 이상 존재할 수 있다.When the object overlap determination unit 210 determines that the first object and the second object overlap each other at the viewpoint, the reference plane extractor 220 searches the reference plane from the first object and the second object to find an object close to the viewpoint. It may be extracted (S504). The reference plane may mean a plane in which all eight vertices constituting the bounding box of another object are located in front of the plane among the six planes constituting the bounding box of one of the first and second objects. Can be. In this case, the front of the plane means the direction of the normal vector of the plane. Since the bound box of the object is a cuboid, there may be at least one such reference plane between two cuboids in three-dimensional space.

도 8은 기준 평면 추출부에서 두 개의 오브젝트로부터 기준 평면을 추출하는 예를 나타내는 도면이다.8 is a diagram illustrating an example of extracting a reference plane from two objects in the reference plane extractor.

도 8에 도시된 바와 같이, 제1 오브젝트(222)를 구성하는 모든 꼭지점 V01 내지 V71은 제2 오브젝트(223)의 제1 평면(224)의 앞 쪽에 위치하게 된다. 반면, 제2 오브젝트(223)의 제2 평면(225)의 경우에는, 제1 오브젝트(222)의 일부 꼭지점(V21, V51, V61, V71)은 제2 평면(225)의 뒤 쪽에 위치하게 된다. 이러한 경우, 제2 오브젝트(223)의 제1 평면(224)만이 기준 평면으로 선택될 수 있다.As shown in FIG. 8, all vertices V0 1 to V7 1 constituting the first object 222 are positioned in front of the first plane 224 of the second object 223. On the other hand, in the case of the second plane 225 of the second object 223, some vertices V2 1 , V5 1 , V6 1 , V7 1 of the first object 222 are behind the second plane 225. It is located on the side. In this case, only the first plane 224 of the second object 223 may be selected as the reference plane.

기준 평면 추출부(220)에서 기준 평면을 추출하면, 오브젝트 위치 판단부(230)는 추출된 기준 평면을 이용하여 상기 제1 오브젝트와 상기 제2 오브젝트의 상기 시점으로부터의 전후 관계를 판단하여 정렬할 수 있다(S505 내지 S508).When the reference plane is extracted by the reference plane extractor 220, the object position determiner 230 may determine and align the front and rear relationships from the viewpoints of the first object and the second object by using the extracted reference plane. It may be (S505 to S508).

추출한 기준 평면의 개수를 판단한 결과(S505), 추출된 기준 평면이 1 개인 경우에는, 2 가지로 나누어 생각할 수 있다. 시점이 기준 평면의 앞에 존재하는 경우에는 기준 평면을 포함하는 오브젝트가 다른 오브젝트보다 시점에서 멀리 위치하게 된다. 반대로, 시점이 기준 평면의 뒤에 존재하는 경우에는 기준 평면을 포함하는 오브젝트가 다른 오브젝트보다 시점에 가까이 위치하게 된다. 다시 도 8을 참조하면, 시점(221)이 기준 평면 즉, 제2 오브젝트의 제1 평면(224)의 앞쪽에 위치하므로, 기준 평면(224)을 포함하는 제2 오브젝트(223)가 제1 오브젝트보다 시점에서 멀리 존재한다고 판단할 수 있다.As a result of determining the number of extracted reference planes (S505), when there is one extracted reference plane, it can divide into two and think. If the viewpoint exists in front of the reference plane, the object including the reference plane is located farther from the viewpoint than other objects. On the contrary, when the viewpoint exists behind the reference plane, the object including the reference plane is located closer to the viewpoint than other objects. Referring back to FIG. 8, since the viewpoint 221 is located in front of the reference plane, that is, the first plane 224 of the second object, the second object 223 including the reference plane 224 may be the first object. It can be judged that it exists farther from the point of view.

만약, 추출된 기준 평면이 1 개보다 많은 경우에는 두 개의 오브젝트는 시점에서 겹쳐져 보이고 기준 평면의 개수가 1 개 이상이므로 3차원 공간에서 꼬인 위치 관계가 된다. 이 때에는 두 개의 오브젝트의 바운드 박스를 구성하는 16 개의 꼭지점 중에서 시점에서 가장 가까운 꼭지점의 거리에 따라 두 오브젝트 간의 전후 관계를 판단할 수 있다.If there are more than one extracted reference planes, the two objects are overlapped at the viewpoint and the number of reference planes is one or more, which results in a twisted positional relationship in three-dimensional space. At this time, the front and rear relationship between the two objects can be determined according to the distance of the vertex closest to the viewpoint among the 16 vertices constituting the bound boxes of the two objects.

i번째인 제1 오브젝트와 j번째인 제2 오브젝트를 정렬을 마치게 되면, j값을 증가시켜 j+1번째 오브젝트를 제2 오브젝트로 하여 제1 오브젝트와 정렬을 할 수 있다(S509 및 S512). 만약, i번째인 제1 오브젝트와 다른 모든 오브젝트들과의 정렬을 마친 경우, i값을 증가시켜 i+1번째 오브젝트를 제1 오브젝트로 하여 다시 다른 오브젝트들과의 정렬을 수행할 수 있다(S510 및 S513)When the alignment of the i-th first object and the j-th second object is completed, the j-value may be increased to align the j-first object with the first object as the second object (S509 and S512). If the i-th first object is aligned with all other objects, it is possible to increase the value of i to align the i + 1 th object with the first object again with other objects (S510). And S513)

상술한 바와 같이, 전체 N 개의 오브젝트를 두 개씩 비교함으로써 전체 오브젝트들의 전후 관계를 판별할 수 있다. N 개의 데이터를 소정의 기준에 따라 정렬 하는 방법은 버블 정렬(Bubble sorting), 선택 정렬(Selection sorting) 등 다양한 수치 정렬 알고리즘과 같이 잘 알려져 있으므로, 여기서 자세한 설명은 생략하도록 한다.As described above, the front-rear relation of all objects may be determined by comparing two objects in total. Since the method of sorting the N pieces of data according to a predetermined criterion is well known as various numerical sorting algorithms such as bubble sorting and selection sorting, detailed description thereof will be omitted.

이와 같이, 모든 오브젝트들의 전후 관계가 판별되어 정렬이 끝났으면 렌더링부(300)는 겹쳐지는 오브젝트들을 전후 관계에 따라 시점으로부터 멀리 있는 오브젝트부터 순차적으로 렌더링을 수행할 수 있다.As such, when the front and rear relationships of all the objects are determined and the alignment is completed, the rendering unit 300 may sequentially render the overlapping objects from the object far from the viewpoint according to the front and back relationship.

이 때, 렌더링은 복수의 오브젝트 내에서 시점으로부터 겹쳐 보이는 오브젝트 단위로 이루어질 수 있다. 즉, N 개의 오브젝트에 대해 정렬이 끝난 경우, 시점으로부터 가장 멀리 떨어진 N번째 오브젝트로부터 가장 가까운 1번째 오브젝트까지 순차적으로 렌더링을 수행할 수도 있으나, 시점으로부터 겹쳐 보이는 오브젝트 단위로 나누어 수행할 수도 있다. 왜냐하면, 겹치지 않는 오브젝트들 간에는 렌더링 순서에 무관하게 같은 결과를 나타내기 때문이다.In this case, the rendering may be performed in units of objects overlapping from the viewpoints in the plurality of objects. That is, when the alignment of the N objects is completed, rendering may be sequentially performed from the Nth object farthest from the viewpoint to the first object closest to each other, but may be performed by dividing the object into units overlapping from the viewpoint. This is because non-overlapping objects produce the same result regardless of the rendering order.

도 9a는 복수의 오브젝트들이 배열된 예를 나타내는 도면이고, 도 9b는 도 9a의 예를 시점에서 바라본 결과를 나타내는 도면이다.FIG. 9A is a diagram illustrating an example in which a plurality of objects are arranged, and FIG. 9B is a diagram illustrating a result of viewing the example of FIG. 9A from a viewpoint.

3차원 GUI를 구성하는 7 개의 오브젝트가 도 9a 및 도 9b에 도시된 바와 같이 배열되었다고 가정하면, 시점으로부터 가까운 오브젝트부터 7 개의 오브젝트를 배열한 순서는 {1, 2, 4, 5, 6, 7, 3}이다. 그러나, 오브젝트 1과 오브젝트 2는 서로 겹치지 않으므로, 반드시 오브젝트 2부터 렌더링을 해야 할 필요는 없다.Assuming that the seven objects constituting the three-dimensional GUI are arranged as shown in Figs. 9A and 9B, the order of arranging seven objects from the object close to the viewpoint is {1, 2, 4, 5, 6, 7 , 3}. However, since Object 1 and Object 2 do not overlap with each other, it is not necessary to render from Object 2.

상술한 바와 같이, 오브젝트 중복 판단부(210)에서 두 오브젝트가 시점에서 겹쳐 보이는지 판단하여 정렬을 수행하면, 도 9a에서와 같이, 실제로 시점에서 겹 쳐 보이는 오브젝트 단위로 정렬을 수행할 수 있다.As described above, when the object overlap determination unit 210 determines whether two objects overlap each other at a viewpoint, the alignment may be performed in units of objects actually overlapping at the viewpoint as shown in FIG. 9A.

도 9a의 예에서는 오브젝트 1, 4, 7 및 3으로 정렬된 제1 단위(301), 오브젝트 2 및 6으로 정렬된 제2 단위(302),, 오브젝트 5만으로 구성된 제3 단위(303)로 정렬될 수 있다. 따라서, 제1 내지 제3 단위(301 내지 303) 각각에 대해서는 서로 겹치는 오브젝트가 없으므로 순서에 상관없이 렌더링을 수행할 수 있다.In the example of FIG. 9A, the first unit 301 aligned with the objects 1, 4, 7, and 3, the second unit 302 aligned with the objects 2, 6, and the third unit 303 composed of only the object 5 are aligned. Can be. Therefore, since there is no overlapping object for each of the first to third units 301 to 303, rendering may be performed regardless of the order.

도 10은 복수의 오브젝트 내에서 시점으로부터 겹쳐 보이는 오브젝트 단위로 렌더링을 수행하는 알고리즘의 일 예를 나타내는 도면이다.FIG. 10 is a diagram illustrating an example of an algorithm that performs rendering in units of objects overlapping from a viewpoint in a plurality of objects.

여기서, MakeRenderingOrder 함수는 오브젝트 i를 입력받아 렌더링을 수행하는 함수이다. 먼저, 오브젝트 i에 대해 렌더링을 수행한 후, 오브젝트 i의 앞에 있는 오브젝트 리스트 내 임의의 오브젝트 j에 대해 오브젝트 j의 뒤에 있는 오브젝트 리스트 내에서 오브젝트 i를 제거한다. 그리고, 오브젝트 j의 뒤에 있는 오브젝트 리스트 내에 다른 오브젝트가 존재하지 않는 경우, 오브젝트 j가 가장 뒤에 있다는 것을 의미하므로, 오브젝트 j에 대한 렌더링을 수행하게 된다. 모든 오브젝트에 대하여 상기 작업을 반복하여 수행함으로써 렌더링을 수행할 수 있다. 도 10의 알고리즘은 정렬된 복수의 오브젝트에 대해 렌더링을 수행하는 하나의 예에 불과하며, 이에 한정되지 않는다.Here, the MakeRenderingOrder function is a function that receives an object i and performs rendering. First, rendering is performed on object i, and then, for any object j in the object list in front of object i, object i is removed from the object list behind object j. If there is no other object in the object list behind the object j, it means that the object j is the last, so that the rendering of the object j is performed. Rendering can be performed by repeatedly performing the above operations on all objects. The algorithm of FIG. 10 is merely one example of performing rendering on a plurality of aligned objects, but is not limited thereto.

종래에는 입체적인 3차원 GUI를 구성하는 복수의 오브젝트를 정렬하고 렌더링하는 데 있어서 정렬을 위해 오브젝트 간의 전후 관계를 판단하는데 있어서 계산이 매우 복잡하기 때문에 하드웨어 성능에 제약이 있는 임베디드 시스템에서 실시간 렌더링에 적용하기 어려운 문제가 있었다.Conventionally, in order to arrange and render a plurality of objects constituting a three-dimensional three-dimensional GUI, calculation is very complicated in determining the front and back relationship between the objects for alignment. There was a difficult problem.

그러나, 본 발명의 일실시예에 따른 3차원 그래픽 렌더링 장치(1)의 경우, 3차원 GUI를 구성하는 오브젝트들을 정렬하는 데 있어서 그 계산량을 대폭 감소시킬 수 있으므로 실시간으로 정확한 알파 블렌딩을 구현할 수 있고 제한적인 성능을 가지는 임베디드 시스템에도 적용할 수 있다. 따라서, 반투명 오브젝트들의 알파 블렌딩 효과를 쉽게 적용할 수 있게 됨으로써 다양한 시각적 효과를 구현할 수 있게 될 뿐만 아니라 시각적으로 부드러운 3차원 GUI를 제공할 수 있게 되어 다양한 분야의 임베디드 시스템에 3D GUI를 보급할 수 있는 기회로 사용될 수 있다.However, in the case of the 3D graphic rendering apparatus 1 according to an embodiment of the present invention, since the computational amount can be greatly reduced in aligning the objects constituting the 3D GUI, accurate alpha blending can be implemented in real time. It can also be applied to embedded systems with limited performance. Therefore, the alpha blending effect of the translucent objects can be easily applied to realize various visual effects, and to provide a visually smooth three-dimensional GUI, which can be applied to embedded systems in various fields. Can be used as an opportunity.

이 때, 본 실시예에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA또는 ASIC과 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.In this case, the term '~ part' used in the present embodiment refers to software or a hardware component such as an FPGA or an ASIC, and '~ part' performs certain roles. However, '~' is not meant to be limited to software or hardware. '~ Portion' may be configured to be in an addressable storage medium or may be configured to play one or more processors. Thus, as an example, '~' means components such as software components, object-oriented software components, class components, and task components, and processes, functions, properties, procedures, and the like. Subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables. The functionality provided within the components and the 'parts' may be combined into a smaller number of components and the 'parts' or further separated into additional components and the 'parts'. In addition, the components and '~' may be implemented to play one or more CPUs in the device or secure multimedia card.

본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구의 범위에 의하여 나타내어지며, 특허청구의 범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Those skilled in the art will appreciate that the present invention can be embodied in other specific forms without changing the technical spirit or essential features of the present invention. Therefore, it should be understood that the embodiments described above are exemplary in all respects and not restrictive. The scope of the present invention is indicated by the scope of the following claims rather than the detailed description, and all changes or modifications derived from the meaning and scope of the claims and the equivalent concept are included in the scope of the present invention. Should be interpreted.

도 1은 본 발명의 일실시예에 따른 3차원 그래픽 렌더링 장치의 구성을 나타내는 블록도이다.1 is a block diagram showing the configuration of a three-dimensional graphics rendering apparatus according to an embodiment of the present invention.

도 2는 본 발명의 일실시예에 따른 3차원 그래픽 렌더링 장치를 이용한 렌더링 방법을 나타내는 순서도이다.2 is a flowchart illustrating a rendering method using a 3D graphic rendering apparatus according to an embodiment of the present invention.

도 3은 오브젝트 좌표 추출부에서 오브젝트의 바운드 박스에서 좌표 정보를 추출하는 예를 나타내는 도면이다.3 is a diagram illustrating an example of extracting coordinate information from a bound box of an object in an object coordinate extracting unit.

도 4는 오브젝트 좌표 변환부에서 좌표를 변환하는 예를 나타내는 도면이다.4 is a diagram illustrating an example of converting coordinates in an object coordinate conversion unit.

도 5는 오브젝트 중복 판단부에서 오브젝트의 바운드 박스로부터 시점에서 보이는 평면을 추출하는 예를 나타내는 도면이다.FIG. 5 is a diagram illustrating an example of extracting a plane viewed from a viewpoint from an object bound box in an object overlap determination unit.

도 6은 시점에서 보이는 평면들과 이들 평면의 외곽을 이루는 꼭지점들의 관계를 기록한 룩업 테이블의 예를 나타내는 도면이다.FIG. 6 is a diagram illustrating an example of a lookup table that records a relationship between planes visible from a viewpoint and vertices forming an outline of the planes.

도 7은 시점에서 보이는 평면들의 외곽을 이루는 꼭지점으로부터 2차원 다각형으로 변환하는 예를 나타내는 도면이다.FIG. 7 is a diagram illustrating an example of converting a vertex forming an outline of a plane viewed from a viewpoint to a two-dimensional polygon.

도 8은 기준 평면 추출부에서 두 개의 오브젝트로부터 기준 평면을 추출하는 예를 나타내는 도면이다.8 is a diagram illustrating an example of extracting a reference plane from two objects in the reference plane extractor.

도 9a는 복수의 오브젝트들이 배열된 예를 나타내는 도면이다.9A is a diagram illustrating an example in which a plurality of objects are arranged.

도 9b는 도 9a의 예를 시점에서 바라본 결과를 나타내는 도면이다.9B is a diagram illustrating a result of viewing the example of FIG. 9A from a viewpoint.

도 10은 복수의 오브젝트 내에서 시점으로부터 겹쳐 보이는 오브젝트 단위로 렌더링을 수행하는 알고리즘의 일 예를 나타내는 도면이다.FIG. 10 is a diagram illustrating an example of an algorithm that performs rendering in units of objects overlapping from a viewpoint in a plurality of objects.

<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>

100: 오브젝트 정보 추출부100: object information extraction unit

110: 오브젝트 좌표 추출부110: object coordinate extraction unit

120: 오브젝트 좌표 변환부120: object coordinate conversion unit

200: 오브젝트 정렬부200: object alignment unit

210: 오브젝트 중복 판단부210: duplicate object determination unit

220: 기준 평면 추출부220: reference plane extraction unit

230: 오브젝트 위치 판단부230: object position determination unit

300: 렌더링부300: renderer

400: 제어부400: control unit

Claims (20)

복수의 오브젝트 각각에 대하여 바운드 박스(Bound box) 정보를 추출하는 오브젝트 정보 추출부;An object information extracting unit extracting bound box information for each of the plurality of objects; 상기 추출된 바운드 박스 정보를 이용하여 상기 복수의 오브젝트를 정렬하는 오브젝트 정렬부; 및An object alignment unit to align the plurality of objects using the extracted bound box information; And 시점(Visual Point)으로부터 원거리의 오브젝트부터 상기 정렬된 복수의 오브젝트를 순차적으로 렌더링(Rendering)하는 렌더링부를 포함하는 3차원 그래픽 렌더링 장치.And a rendering unit configured to sequentially render the plurality of aligned objects from an object remote from a visual point. 제 1 항에 있어서,The method of claim 1, 상기 오브젝트 정보 추출부는,The object information extraction unit, 상기 복수의 오브젝트 각각에 대하여 오브젝트 좌표계(Object Coordinate)에 대한 상기 바운드 박스의 좌표를 구하는 오브젝트 좌표 추출부; 및An object coordinate extraction unit for obtaining coordinates of the bound box with respect to an object coordinate system for each of the plurality of objects; And 상기 구해진 바운드 박스의 좌표를 눈 좌표계(Eye Coordinate)에 대한 좌표로 변환하는 오브젝트 좌표 변환부를 포함하는 3차원 그래픽 렌더링 장치.And an object coordinate converting unit converting the obtained coordinates of the bound box into coordinates with respect to an eye coordinate system. 제 1 항에 있어서,The method of claim 1, 상기 오브젝트 정렬부는 상기 복수의 오브젝트 중 i번째(i는 자연수)인 제1 오브젝트와 j번째(j는 자연수)인 제2 오브젝트의 상기 시점으로부터의 전후 관계를 판단하여 정렬하고, 상기 제1 및 제2 오브젝트의 전후 관계를 판단 및 정렬을 상기 복수의 오브젝트 내 모든 오브젝트에 대하여 반복적으로 수행하는 3차원 그래픽 렌더링 장치.The object arranging unit determines and aligns a front-rear relationship from the viewpoint of the first object (i is a natural number) and the second object (j is a natural number) of the plurality of objects, and arranges the first and second objects. 2. The apparatus of claim 3, wherein the front and rear relationships of the objects are repeatedly determined and aligned with respect to all objects in the plurality of objects. 제 3 항에 있어서,The method of claim 3, wherein 상기 오브젝트 정렬부는,The object aligning unit, 상기 제1 및 제2 오브젝트가 상기 시점에서 겹쳐 보이는지 판단하는 오브젝트 중복 판단부;An object overlap determination unit that determines whether the first and second objects overlap each other at the viewpoint; 상기 판단 결과, 상기 제1 및 제2 오브젝트가 상기 시점에서 겹쳐 보이는 경우, 상기 제1 오브젝트와 상기 제2 오브젝트로부터 기준 평면을 추출하는 기준 평면 추출부;A reference plane extracting unit extracting a reference plane from the first object and the second object when the first and second objects overlap each other at the viewpoint as a result of the determination; 상기 추출된 기준 평면을 이용하여 상기 제1 오브젝트와 상기 제2 오브젝트의 상기 시점으로부터의 전후 관계를 판단하여 정렬하는 오브젝트 위치 판단부를 포함하는 3차원 그래픽 렌더링 장치.And an object position determiner configured to determine and align a front-rear relationship between the first object and the second object from the viewpoint using the extracted reference plane. 제 4 항에 있어서,The method of claim 4, wherein 상기 오브젝트 중복 판단부는 상기 제1 및 제2 오브젝트 각각에 대하여 상기 바운드 박스를 구성하는 평면들 중에서 상기 시점에서 보이는 평면들을 추출하고, 상기 시점에서 보이는 평면들의 외곽을 이루는 꼭지점들을 추출한 후, 상기 꼭지점들로 이루어진 2차원 다각형이 겹쳐 보이는지 판단하는 3차원 그래픽 렌더링 장치.The object overlap determination unit extracts planes visible at the viewpoint from among planes constituting the bound box for each of the first and second objects, extracts vertices that form the outline of the planes visible at the viewpoint, and then vertices. 3D graphics rendering device for determining whether the two-dimensional polygon consisting of. 제 4 항에 있어서,The method of claim 4, wherein 상기 기준 평면은 상기 제1 및 제2 오브젝트 중 어느 하나의 오브젝트의 바운드 박스를 구성하는 평면들 중에서 다른 오브젝트의 바운드 박스를 구성하는 모든 꼭지점들이 그 평면의 앞 쪽에 위치하게 되는 평면인 3차원 그래픽 렌더링 장치.The reference plane is a plane in which all vertices constituting the bounding box of another object among the planes constituting the bounding box of one of the first and second objects are located in front of the plane. Device. 제 4 항에 있어서,The method of claim 4, wherein 상기 오브젝트 위치 판단부는 상기 추출된 기준 평면의 개수에 따라 상기 시점으로부터의 전후 관계를 판단하는 3차원 그래픽 렌더링 장치.And the object position determiner determines a front-rear relationship from the viewpoint according to the number of extracted reference planes. 제 7 항에 있어서,The method of claim 7, wherein 상기 오브젝트 위치 판단부는 상기 추출된 기준 평면의 개수가 1개인 경우, 상기 시점과 상기 기준 평면의 위치를 비교하여 상기 시점으로부터의 전후 관계를 판단하는 3차원 그래픽 렌더링 장치.And the object position determining unit determines the front and rear relationship from the viewpoint by comparing the position of the viewpoint and the reference plane when the number of the extracted reference planes is one. 제 7 항에 있어서,The method of claim 7, wherein 상기 오브젝트 위치 판단부는 상기 추출된 기준 평면의 개수가 2개 이상인 경우, 상기 제1 및 제2 오브젝트의 바운드 박스를 구성하는 꼭지점들 중 상기 시점에서 가장 가까운 꼭지점의 거리에 따라 상기 시점으로부터의 전후 관계를 판단하 는 3차원 그래픽 렌더링 장치.When the number of extracted reference planes is two or more, the object position determiner determines the front and rear relationship from the viewpoint according to the distance of the vertices closest to the viewpoint among the vertices constituting the bound boxes of the first and second objects. 3D graphics rendering device to determine the. 제 1 항에 있어서,The method of claim 1, 상기 렌더링은 상기 복수의 오브젝트 내에서 상기 시점으로부터 겹쳐 보이는 오브젝트 단위로 이루어지는 3차원 그래픽 렌더링 장치.And the rendering is performed in units of objects overlapped from the viewpoint in the plurality of objects. 복수의 오브젝트 각각에 대하여 바운드 박스(Bound box) 정보를 추출하는 단계;Extracting bound box information for each of the plurality of objects; 상기 추출된 바운드 박스 정보를 이용하여 상기 복수의 오브젝트를 정렬하는 단계; 및Arranging the plurality of objects using the extracted bound box information; And 시점(Visual Point)으로부터 원거리의 오브젝트부터 상기 정렬된 복수의 오브젝트를 순차적으로 렌더링(Rendering)하는 단계를 포함하는 3차원 그래픽 렌더링 방법.And sequentially rendering the aligned plurality of objects from an object remote from a visual point. 제 11 항에 있어서,The method of claim 11, 상기 바운드 박스 정보를 추출하는 단계는,Extracting the bound box information, 상기 복수의 오브젝트 각각에 대하여 오브젝트 좌표계(Object Coordinate)에 대한 상기 바운드 박스의 좌표를 구하는 단계; 및Obtaining coordinates of the bound box with respect to an object coordinate for each of the plurality of objects; And 상기 구해진 바운드 박스의 좌표를 눈 좌표계(Eye Coordinate)에 대한 좌표로 변환하는 단계를 포함하는 3차원 그래픽 렌더링 방법.And converting the obtained coordinates of the bound box into coordinates with respect to an eye coordinate system. 제 11 항에 있어서,The method of claim 11, 상기 복수의 오브젝트를 정렬하는 단계는,Arranging the plurality of objects, 상기 복수의 오브젝트 중 i번째(i는 자연수)인 제1 오브젝트와 j번째(j는 자연수)인 제2 오브젝트의 상기 시점으로부터의 전후 관계를 판단하여 정렬하는 단계; 및Judging and aligning a front-rear relationship from the viewpoint of the first object (i is a natural number) and the second object (j is a natural number) of the plurality of objects; And 상기 제1 및 제2 오브젝트의 전후 관계를 판단하고 정렬하는 단계를 상기 복수의 오브젝트 내 모든 오브젝트에 대하여 반복적으로 수행하는 단계를 포함하는 3차원 그래픽 렌더링 방법.And repeatedly determining the front and rear relationships of the first and second objects with respect to all objects in the plurality of objects. 제 13 항에 있어서,The method of claim 13, 상기 제1 및 제2 오브젝트의 전후 관계를 판단하여 정렬하는 단계는,Determining and aligning front and rear relationships between the first and second objects may include: 상기 제1 및 제2 오브젝트가 상기 시점에서 겹쳐 보이는지 판단하는 단계;Determining whether the first and second objects overlap at the time point; 상기 판단 결과, 상기 제1 및 제2 오브젝트가 상기 시점에서 겹쳐 보이는 경우, 상기 제1 오브젝트와 상기 제2 오브젝트로부터 기준 평면을 추출하는 단계;Extracting a reference plane from the first object and the second object when the first and second objects overlap each other at the viewpoint as a result of the determination; 상기 추출된 기준 평면을 이용하여 상기 제1 오브젝트와 상기 제2 오브젝트의 상기 시점으로부터의 전후 관계를 판단하는 단계; 및Determining a front-rear relationship from the viewpoint of the first object and the second object by using the extracted reference plane; And 상기 전후 관계에 따라 상기 제1 오브젝트와 상기 제2 오브젝트를 정렬하는 단계를 포함하는 3차원 그래픽 렌더링 방법.And aligning the first object and the second object according to the front-rear relationship. 제 14 항에 있어서,The method of claim 14, 상기 제1 및 제2 오브젝트가 상기 시점에서 겹쳐 보이는지 판단하는 단계는,The determining of whether the first and second objects overlap at the viewpoint may include: 상기 제1 및 제2 오브젝트 각각에 대하여 상기 바운드 박스를 구성하는 평면들 중에서 상기 시점에서 보이는 평면들을 추출하는 단계;Extracting planes visible at the viewpoint from among planes constituting the bound box for each of the first and second objects; 상기 제1 및 제2 오브젝트 각각에 대하여 상기 시점에서 보이는 평면들의 외곽을 이루는 꼭지점들을 추출하는 단계; 및Extracting vertices that form an outline of the planes visible at the viewpoint for each of the first and second objects; And 상기 제1 및 제 2 오브젝트 각각에 대하여 상기 꼭지점들로 이루어진 2차원 다각형이 겹쳐 보이는지 판단하는 단계를 포함하는 3차원 그래픽 렌더링 방법.And determining whether two-dimensional polygons consisting of the vertices overlap each other for the first and second objects. 제 14 항에 있어서,The method of claim 14, 상기 기준 평면은 상기 제1 및 제2 오브젝트 중 어느 하나의 오브젝트의 바운드 박스를 구성하는 평면들 중에서 다른 오브젝트의 바운드 박스를 구성하는 모든 꼭지점들이 그 평면의 앞 쪽에 위치하게 되는 평면인 3차원 그래픽 렌더링 방법.The reference plane is a plane in which all vertices constituting the bound box of another object among the planes constituting the bound box of one of the first and second objects are located in front of the plane. Way. 제 14 항에 있어서,The method of claim 14, 상기 시점으로부터의 전후 관계를 판단하는 단계는 상기 추출된 기준 평면의 개수에 따라 판단되는 3차원 그래픽 렌더링 방법.The determining of the front-rear relationship from the viewpoint may be determined according to the number of the extracted reference planes. 제 17 항에 있어서,The method of claim 17, 상기 추출된 기준 평면의 개수가 1개인 경우, 상기 시점과 상기 기준 평면의 위치를 비교하여 상기 시점으로부터의 전후 관계를 판단하는 3차원 그래픽 렌더링 방법.And comparing the position of the viewpoint and the reference plane when the number of the extracted reference planes is one, to determine a front-rear relationship from the viewpoint. 제 17 항에 있어서,The method of claim 17, 상기 추출된 기준 평면의 개수가 2개 이상인 경우, 상기 제1 및 제2 오브젝트의 바운드 박스를 구성하는 꼭지점들 중 상기 시점에서 가장 가까운 꼭지점의 거리에 따라 상기 시점으로부터의 전후 관계를 판단하는 3차원 그래픽 렌더링 방법.When the number of extracted reference planes is two or more, three-dimensionally determining a front and rear relationship from the viewpoint according to the distance of the vertex closest to the viewpoint among the vertices constituting the bound boxes of the first and second objects. Graphic rendering method. 제 11 항에 있어서,The method of claim 11, 상기 렌더링은 상기 복수의 오브젝트 내에서 상기 시점으로부터 겹쳐 보이는 오브젝트 단위로 이루어지는 3차원 그래픽 렌더링 방법.And the rendering is performed in units of objects overlapped from the viewpoint in the plurality of objects.
KR1020080012669A 2007-10-22 2008-02-12 Apparatus and method for rendering 3D Graphic object KR101407639B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US12/253,513 US8289320B2 (en) 2007-10-22 2008-10-17 3D graphic rendering apparatus and method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US98154307P 2007-10-22 2007-10-22
US60/981,543 2007-10-22

Publications (2)

Publication Number Publication Date
KR20090040830A true KR20090040830A (en) 2009-04-27
KR101407639B1 KR101407639B1 (en) 2014-06-16

Family

ID=40764116

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080012669A KR101407639B1 (en) 2007-10-22 2008-02-12 Apparatus and method for rendering 3D Graphic object

Country Status (1)

Country Link
KR (1) KR101407639B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110109356A (en) * 2010-03-31 2011-10-06 삼성전자주식회사 Apparatus and method for rendering three dimensional image in electronic device
KR102331952B1 (en) * 2021-07-16 2021-12-01 주식회사 카펜스트리트 2D Rendering Device and Its Method according to 3D Data Viewport

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6910130B2 (en) 2015-11-06 2021-07-28 三星電子株式会社Samsung Electronics Co.,Ltd. 3D rendering method and 3D rendering device
KR102564479B1 (en) 2016-11-22 2023-08-07 삼성전자주식회사 Method and apparatus of 3d rendering user' eyes

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6771264B1 (en) * 1998-08-20 2004-08-03 Apple Computer, Inc. Method and apparatus for performing tangent space lighting and bump mapping in a deferred shading graphics processor
US7583263B2 (en) * 2003-12-09 2009-09-01 Siemens Product Lifecycle Management Software Inc. System and method for transparency rendering

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110109356A (en) * 2010-03-31 2011-10-06 삼성전자주식회사 Apparatus and method for rendering three dimensional image in electronic device
KR102331952B1 (en) * 2021-07-16 2021-12-01 주식회사 카펜스트리트 2D Rendering Device and Its Method according to 3D Data Viewport

Also Published As

Publication number Publication date
KR101407639B1 (en) 2014-06-16

Similar Documents

Publication Publication Date Title
US8289320B2 (en) 3D graphic rendering apparatus and method
US7755626B2 (en) Cone-culled soft shadows
CN101609562B (en) System and methods for rendering transparent surfaces in high depth complexity scenes
KR101724360B1 (en) Mixed reality display apparatus
CN104519339B (en) Image processing equipment and method
US20070057940A1 (en) 2D editing metaphor for 3D graphics
US10325403B2 (en) Image based rendering techniques for virtual reality
US20180300858A1 (en) Anti-aliasing of graphical elements defined based on functions
US11468635B2 (en) Methods and apparatus to facilitate 3D object visualization and manipulation across multiple devices
CN107392836A (en) The more projections of solid realized using graphics processing pipeline
JP2012190428A (en) Stereoscopic image visual effect processing method
Plate et al. A flexible multi-volume shader framework for arbitrarily intersecting multi-resolution datasets
KR101407639B1 (en) Apparatus and method for rendering 3D Graphic object
WO2016040538A1 (en) Convex polygon clipping during rendering
CN106780704B (en) The direct lighting effect proximity rendering method of three-dimensional scenic reused based on visibility
JP2008282171A (en) Graphics processor, and method for rendering processing
US20230206567A1 (en) Geometry-aware augmented reality effects with real-time depth map
Lyes et al. Implementing stereo vision of gpu-accelerated scientific simulations using commodity hardware
Wakid et al. Texture mapping volumes using GPU-based polygon-assisted raycasting
Raza et al. Screen-space deformable meshes via CSG with per-pixel linked lists
JP2005235015A (en) Three-dimensional image generation device and three-dimensional image generation method
JPH02132572A (en) Picture display device
Dandachy et al. A cutaway visualization technique for understanding scenes with embedded objects
Orłowski et al. Material matrix generation for FDTD simulations using OpenGL
Nürnberg Cell-based object representation

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170522

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180518

Year of fee payment: 5