KR100952749B1 - Method for saliency-based lighting for feature emphasis - Google Patents

Method for saliency-based lighting for feature emphasis Download PDF

Info

Publication number
KR100952749B1
KR100952749B1 KR1020080074904A KR20080074904A KR100952749B1 KR 100952749 B1 KR100952749 B1 KR 100952749B1 KR 1020080074904 A KR1020080074904 A KR 1020080074904A KR 20080074904 A KR20080074904 A KR 20080074904A KR 100952749 B1 KR100952749 B1 KR 100952749B1
Authority
KR
South Korea
Prior art keywords
vertex
spotlight
vertices
dimensional image
illumination
Prior art date
Application number
KR1020080074904A
Other languages
Korean (ko)
Other versions
KR20100013402A (en
Inventor
이창하
바쉬니 아미탑
Original Assignee
중앙대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 중앙대학교 산학협력단 filed Critical 중앙대학교 산학협력단
Priority to KR1020080074904A priority Critical patent/KR100952749B1/en
Publication of KR20100013402A publication Critical patent/KR20100013402A/en
Application granted granted Critical
Publication of KR100952749B1 publication Critical patent/KR100952749B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/506Illumination models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 3차원 이미지의 특징 부분을 부각시켜 구현할 수 있는 세일리언시 기반 조명 방법에 관한 것이다.The present invention relates to a saliency-based lighting method that can be implemented by highlighting a feature portion of a 3D image.

본 발명의 실시 예에 따른 세일리언시 기반 조명 방법은 세일리언시를 기반으로 하여 3차원 이미지를 조명함에 있어서, 상기 3차원 이미지의 각 정점에 대한 세일리언시를 계산하는 단계; 상기 계산된 각 정점에 대한 세일리언시 중에서 소정 기준 이상의 세일리언시를 가지는 정점들을 적어도 하나의 그룹으로 분류하는 단계; 상기 분류된 그룹을 통해 스포트라이트 지역을 생성하는 단계; 상기 스포트라이트 지역 내부의 정점들과, 상기 스포트라이트 지역 외부의 정점들에 대한 가우시안 필터를 계산하는 단계; 및 상기 가우시안 필터를 이용하여 스포트라이트 지역 조명을 계산하는 단계를 포함한다.According to an exemplary embodiment of the present invention, a illumination based illumination method includes: calculating illumination for each vertex of the three-dimensional image in illuminating the three-dimensional image based on the three-dimensional image; Classifying vertices having more than a predetermined criterion among the calculated salience for each vertex into at least one group; Creating a spotlight region through the classified group; Calculating Gaussian filters for vertices inside the spotlight area and vertices outside the spotlight area; And calculating spotlight area lighting using the Gaussian filter.

Description

특징 강조를 위한 세일리언시 기반 조명 방법{METHOD FOR SALIENCY-BASED LIGHTING FOR FEATURE EMPHASIS}Quality-based lighting method to highlight features {METHOD FOR SALIENCY-BASED LIGHTING FOR FEATURE EMPHASIS}

본 발명은 세일리언시 기반 조명 방법에 관한 것으로, 특히 3차원 이미지의 특징 부분을 부각시켜 구현할 수 있는 세일리언시 기반 조명 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a illumination based illumination method, and more particularly, to a marine based illumination method that can be embodied by highlighting a feature of a 3D image.

최근, 3차원 이미지를 만들어내는 기술의 발전으로, 수백만 혹은 수십억 개의 점으로 이루어진 방대한 메쉬(mesh)로 구성된 3차원 이미지를 생성할 수 있게 되었다. 이러한 3차원 이미지에는 시각적으로 현실감이 느껴질 수 있도록 조명이 사용된다.Recently, with the development of technology for producing three-dimensional images, it is possible to generate a three-dimensional image composed of a massive mesh consisting of millions or billions of points. The three-dimensional image is illuminated with a visual realism.

종래의 조명 방법으로는 빛이 직접적으로 비추는 부분만을 계산하는 지역 조명 방법과, 빛이 직적접으로 비추지 않는 부분까지 계산하는 전역 조명 방법이 있다. 보통, 렌더링 소요 시간 등에서의 장점으로 인하여 3차원 이미지의 구현에 있어서, 지역 조명 방법을 흔히 사용하고 있다.Conventional lighting methods include a local lighting method for calculating only a portion of light directly shining, and a global lighting method for calculating even a portion of light not directly shining. In general, the local illumination method is commonly used in the implementation of three-dimensional images due to advantages in rendering time.

하지만, 종래의 지역 조명 방법은, 특정 위치의 광원에서 조사되는 빛의 영 역을 일괄적으로 계산하기 때문에, 3차원 이미지의 특징 부분들이 전혀 부각되지 않는 단점이 있으며, 이는 전역 조명 방법에서도 마찬가지이다.However, the conventional area lighting method has a disadvantage in that feature areas of the 3D image are not highlighted at all because the area of light irradiated from a light source at a specific location is collectively calculated. .

도 1은 구 형태로 나타낸 3차원 분자 이미지를 일반적인 지역 조명을 사용하여 구현한 도면이다.1 is a view showing a three-dimensional molecular image in the form of a sphere using general area illumination.

도 1을 참조하면, 어느 부분이 3차원 분자 이미지의 특징적인 부분인지를 육안으로 전혀 식별할 수 없음을 알 수 있다.Referring to FIG. 1, it can be seen that no part can visually identify which part is a characteristic part of the three-dimensional molecular image.

따라서, 본 발명의 목적은 3차원 이미지의 특징 부분을 부각시켜 구현할 수 있는 세일리언시 기반 조명 방법을 제공함에 있다.Accordingly, an object of the present invention is to provide a saliency-based lighting method that can be implemented by highlighting a feature portion of a 3D image.

상기 목적을 달성하기 위하여, 본 발명의 실시 예에 따른 세일리언시 기반 조명 방법은 세일리언시를 기반으로 하여 3차원 이미지를 조명함에 있어서, 상기 3차원 이미지의 각 정점에 대한 세일리언시를 계산하는 단계; 상기 계산된 각 정점에 대한 세일리언시 중에서 소정 기준 이상의 세일리언시를 가지는 정점들을 적어도 하나의 그룹으로 분류하는 단계; 상기 분류된 그룹을 통해 스포트라이트 지역을 생성하는 단계; 상기 스포트라이트 지역 내부의 정점들과, 상기 스포트라이트 지역 외부의 정점들에 대한 가우시안 필터를 계산하는 단계; 및 상기 가우시안 필터를 이용하여 스포트라이트 지역 조명값을 계산하는 단계를 포함한다.In order to achieve the above object, according to an embodiment of the present invention, in the illumination-based illumination method of illuminating a three-dimensional image based on the saliency, the saliency for each vertex of the three-dimensional image is calculated. Making; Classifying vertices having more than a predetermined criterion among the calculated salience for each vertex into at least one group; Creating a spotlight region through the classified group; Calculating Gaussian filters for vertices inside the spotlight area and vertices outside the spotlight area; And calculating a spotlight area lighting value using the Gaussian filter.

상기 소정 기준 이상의 세일리언시를 가지는 정점들은 K-평균군집화 방법을 통해 각 그룹으로 분류된다.Vertices with more than the predetermined criterion are classified into each group through the K-means clustering method.

상기 스포트라이트 지역을 생성하는 단계는 주 성분 분석 방법을 통해 상기 분류된 그룹의 중심축을 구하는 단계, 및 상기 중심축 중 가장 큰 2개의 축을 이용하여 평면 형태를 형성하는 단계를 포함하고, 상기 스포트라이트 지역은 상기 평면 형태이다.Generating the spotlight region includes obtaining a central axis of the classified group through a principal component analysis method, and forming a planar shape using the two largest axes of the central axis, wherein the spotlight region is The flat form.

상기 평면 형태는 타원 형태를 포함한다.The planar shape includes an elliptic shape.

상기 세일리언시 기반 조명 방법은 상기 3차원 이미지에 대한 일반 조명값을 계산하는 단계; 및 상기 일반 조명값에 상기 계산된 스포트라이트 지역 조명값을 더하는 단계를 더 포함한다.The saliency-based illumination method includes calculating a general illumination value for the 3D image; And adding the calculated spotlight area illumination value to the general illumination value.

상기 3차원 이미지의 각 정점에 대한 세일리언시를 계산하는 단계는 상기 3차원 이미지를 구성하는 메쉬를 간략화한 저해상도 메쉬를 생성하는 단계; 및 상기 저해상도 메쉬의 각 정점에 대한 세일리언시를 계산하는 단계를 포함한다.Computing the salience for each vertex of the three-dimensional image comprises the steps of: generating a low resolution mesh that simplifies the mesh constituting the three-dimensional image; And calculating the sailivity for each vertex of the low resolution mesh.

상기 3차원 이미지의 각 정점은 상기 3차원 이미지를 구성하는 메쉬의 각 꼭지점이다.Each vertex of the three-dimensional image is a vertex of the mesh constituting the three-dimensional image.

상기 3차원 이미지의 각 정점은 상기 저해상도 메쉬의 각 꼭지점이다.Each vertex of the three-dimensional image is a vertex of the low resolution mesh.

본 발명의 세일리언시 기반 조명 방법에 따르면, 3차원 이미지의 특징적인 부분을 검출하고, 검출된 특징 부분에 주변과는 다른 스포트라이트 조명을 적용할 수 있다.According to the saliency-based illumination method of the present invention, it is possible to detect a characteristic part of the three-dimensional image, and apply spotlight illumination different from the surroundings to the detected feature part.

또한, 본 발명에 따르면, 특징적인 부분과 그 주변 사이에 가우시안 필터를 적용하여, 특징적인 부분으로 갈수록 점차적인 스포트라이트 조명을 사용함으로써 3차원 이미지에 보다 자연스러운 조명을 구현할 수 있어 효과적이다.In addition, according to the present invention, by applying a Gaussian filter between the characteristic part and its surroundings, it is effective to realize more natural lighting in the three-dimensional image by using the spotlight illumination gradually toward the characteristic part.

상기 목적 외에 본 발명의 다른 목적 및 이점들은 첨부 도면을 참조한 본 발명의 바람직한 실시 예에 대한 설명을 통하여 명백하게 드러나게 될 것이다.Other objects and advantages of the present invention in addition to the above object will be apparent from the description of the preferred embodiment of the present invention with reference to the accompanying drawings.

이하, 본 발명의 바람직한 실시 예에 대하여, 도 2 내지 도 8을 참조하여 상세하게 설명하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to FIGS. 2 to 8.

이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서, 본 명세서에 기재된 실시 예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시 예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다.Prior to this, terms or words used in the specification and claims should not be construed as having a conventional or dictionary meaning, and the inventors should properly explain the concept of terms in order to best explain their own invention. Based on the principle that can be defined, it should be interpreted as meaning and concept corresponding to the technical idea of the present invention. Therefore, the embodiments described in this specification and the configurations shown in the drawings are merely the most preferred embodiments of the present invention and do not represent all the technical ideas of the present invention. Therefore, It is to be understood that equivalents and modifications are possible.

도 2는 본 발명의 실시 예에 따른 세일리언시 기반 조명 방법을 나타내는 흐름도이다.2 is a flowchart illustrating a warranty-based lighting method according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 실시 예에 따른 조명 방법은 먼저 3차원 이미지에 대한 일반 조명값을 구하는 과정을 거친다(S1). 여기서, 일반 조명값이란 종래의 방법에 따라 특징 강조 없이 3차원 이미지에 균일하게 적용되는 조명값을 의미하므로, 상세한 설명은 생략하도록 한다.2, the lighting method according to an embodiment of the present invention first goes through the process of obtaining a general lighting value for the three-dimensional image (S1). Here, the general illumination value means an illumination value uniformly applied to the 3D image without highlighting the feature according to the conventional method, and thus, the detailed description thereof will be omitted.

다음으로, 3차원 이미지의 특징 지점을 검출하기 위하여 세일리언 시(Saliency)가 계산된다(S2). 여기서, 세일리언시는 3차원 이미지의 특정 정점에 대한 주변 정점들과의 차이값을 의미한다.Next, in order to detect the feature point of the 3D image, the salience is calculated (S2). In this case, the salience refers to a difference value between neighboring vertices of a specific vertex of the 3D image.

본 발명에서는 세일리언시를 구하기 위하여, 노말 벡터(Normal vector)에 중심-주변 방법(Center-surround mechanism)을 적용한다.In the present invention, the center-surround mechanism is applied to a normal vector in order to obtain the saliency.

먼저, 노말 분포 사이의 차를 구하기 위하여, 도 3의 (a) 및 (b)에 도시된 바와 같이 주 성분 분석(Principal Component Analysis, PCA) 방법을 이용하여 두 점에 맞는 평면을 각각 구하고, (c)에 도시된 바와 같이 두 평면 각각의 노말 벡터의 각도 차를 계산한다. 그리고, 이러한 노말 벡터의 각도 차를 이용한 수학식 1을 통하여, 특정 스케일에서의 특정 정점에 대한 세일리언시가 계산된다.First, in order to obtain the difference between normal distributions, as shown in FIGS. 3A and 3B, the planes corresponding to the two points are obtained using the Principal Component Analysis (PCA) method, respectively. Calculate the angular difference between the normal vectors of each of the two planes as shown in c). Then, through Equation 1 using the angle difference between the normal vectors, the saliency for a specific vertex at a specific scale is calculated.

Figure 112008055273183-pat00001
Figure 112008055273183-pat00001

여기서, Si는 스케일 i에서의 정점 v에 대한 세일리언시를 의미하고, M은 메쉬의 각 정점을 정점의 노말 벡터로 맵핑시키는 연산으로 정의되며, V(M(v),σi)는 정점 v로부터 σi의 거리만큼 떨어진 점들을 포함하는 평면의 노말 벡터를 의미한다. 한편, σi는 스케일 i에서의 주변 점들까지의 거리를 의미하며, 정점은 3차원 이미지를 구성하는 메쉬의 각 꼭지점을 의미한다.Where S i denotes the seriancy of vertex v at scale i, M is defined as an operation that maps each vertex of the mesh to a normal vector of vertices, and V (M (v), σ i ) Mean a normal vector of plane containing the points σ i from the vertex v. On the other hand, σ i means the distance to the surrounding points in the scale i, the vertex means each vertex of the mesh constituting the three-dimensional image.

즉, 특정 스케일에서의 특정 정점에 대한 세일리언시는 노말 벡터 각도 차의 절대값으로 계산된다.That is, the salience for a particular vertex at a particular scale is calculated as the absolute value of the normal vector angle difference.

이후, σi값을 변화시키면서 각 σi에 따른 세일리언시를 구함으로써 최종 세일리언시를 계산한다. 예컨대, σi값은 2Å, 4Å, 8Å 단위로 변경 가능하며, 최종 세일리언시(S)는 아래 수학식 2를 통하여 계산된다.Then, to calculate the final three days Varian upon by obtaining the three days during Varian for each σ i σ i while changing the value. For example, the value of σ i can be changed in units of 2 ms, 4 ms, and 8 ms, and the final saliency S is calculated through Equation 2 below.

Figure 112008055273183-pat00002
Figure 112008055273183-pat00002

한편, 본 발명에서는 세일리언시의 계산 속도 향상을 위하여 3차원 이미지의 해상도 변경 방법을 이용할 수 있다.Meanwhile, in the present invention, a method of changing the resolution of a 3D image may be used to improve the computational speed of the sailivity.

아래 표 1은 각각 13K, 26K, 51K의 정점을 가진 3차원 이미지의 세일리언시를 2Å, 4Å, 8Å의 스케일로 구했을 경우, 세일리언시 계산에 소요되는 시간을 초 단위로 나타낸 표이다.Table 1 below is a table showing the time required to calculate the saliency in seconds when the saliency of the 3D image having the vertices of 13K, 26K, and 51K is measured at 2 s, 4 s, and 8 s, respectively.

2Å  2Å 4Å  4Å 8Å  8Å 13K  13K 2.00  2.00 10.34  10.34 49.57  49.57 26K  26K 6.54  6.54 37.23  37.23 206.06  206.06 51K  51 K 24.51  24.51 146.61  146.61 929.71  929.71

표 1을 참조하면, 8Å의 스케일에서 13K의 경우, 49.67초의 시간이 소요된 것에 반해, 51K에서는 929.71초의 시간이 소요되어, 13K에 비해 약 19배의 시간이 더 소요되었음을 알 수 있다.Referring to Table 1, it can be seen that in the case of 13K in the 8 kHz scale, the time of 49.67 seconds, while in the 51K it takes 929.71 seconds, about 19 times longer than 13K.

이러한 소요 시간의 차이에도 불구하고, 13K, 26K, 51K 각각에서의 세일리언시 계산 결과를 나타내는 도 4를 참조하면, 시각적으로 거의 차이가 없음을 알 수 있다.In spite of the difference in time required, referring to FIG. 4, which shows the results of the calculation of the salience in 13K, 26K, and 51K, respectively, it can be seen that there is almost no difference visually.

이와 같은 결과를 이용하여, 본 발명에서는 원본 3차원 이미지를 구성하는 메쉬의 해상도를 낮춰 간략화한 저해상도 메쉬를 생성하여 이에 대한 세일리언시를 게산하고, 계산된 세일리언시를 통해 원본 3차원 이미지의 조명을 제어하는 방법을 사용함으로써 3차원 이미지의 조명을 위해 소요되는 시간을 단축시킬 수 있는 효과가 있다.Using this result, the present invention generates a simplified low-resolution mesh by lowering the resolution of the mesh constituting the original three-dimensional image to calculate the saliency for it, and calculate the saliency of the original three-dimensional image. By using a method of controlling the lighting, it is possible to shorten the time required for lighting of the 3D image.

이러한 과정을 통해 세일리언시가 계산되면, 세일리언시가 높은 지점을 검출할 수 있게 된다. 특정 정점의 세일리언시가 높다는 것은 주변 정점에 비해 그 특정 정점이 특징적인 것을 의미하기 때문에, 세일리언시가 높은 지점이 3차원 이미지의 특정 지점이 된다. 이때, 세일리언시의 높고 낮음에 대한 기준은 설정된 임계값에 따른다.Through this process, when the saliency is calculated, it is possible to detect the point where the saliency is high. Since the higher the saliency of a particular vertex, the particular vertex is characteristic of the vertex than the surrounding vertex. At this time, the criterion for high and low of the sailency is based on the set threshold.

이후, 세일리언시가 높은 지점들이 분류되어, 도 5에 도시된 바와 같은 조명의 스포트라이트(Spotlight) 그룹이 생성된다(S3). 도 5에서 각 점들은 세일리언시가 높은 지점, 즉 3차원 이미지의 특징 지점들을 의미한다.Thereafter, the points with the higher the salary are classified, so that a spotlight group of lighting as shown in FIG. 5 is generated (S3). In FIG. 5, each of the points represents a point of high salivity, that is, feature points of the 3D image.

조명의 스포트라이트 그룹을 생성하는 방법으로는 K-평균군집화(K-Means Clustering) 방법이 이용될 수 있다. K-평균군집화 방법은 여러 데이터를 K개의 그룹으로 군집화시키는 방법으로, 기존에 널리 이용되고 있는 방법이기 때문에 상세한 설명은 생략하기로 한다.The K-Means Clustering method may be used as a method for generating spotlight groups of illumination. The K-means clustering method is a method of clustering several data into K groups, and since the method is widely used, a detailed description thereof will be omitted.

생성된 각각의 스포트라이트 그룹을 통해, 도 6에 도시된 바와 같이 스포트라이트 지역이 생성된다(S4). 본 발명에서는 3차원 이미지의 조명에 있어서, 자연스러운 스포트라이트 효과를 위하여, 스포트라이트 지점을 타원 형태로 형성한다.Through each of the generated spotlight group, as shown in Figure 6, a spotlight area is generated (S4). In the present invention, in the illumination of the three-dimensional image, in order to achieve a natural spotlight effect, spotlight points are formed in an ellipse shape.

이를 위하여, PCA 방법을 통해 스포트라이트 그룹 각각의 중심축을 구한다. 이 중심축은 3개의 축으로 이루어지며, 3개의 축 중 가장 큰 2개의 축을 이용하여 타원을 형성한다.For this purpose, the central axis of each spotlight group is obtained through the PCA method. This central axis consists of three axes and forms an ellipse using the two largest axes of the three axes.

스포트라이트 지역이 생성된 이후, 가우시안 필터(Gaussian filter)가 계산된다(S5). 가우시안 필터는 스포트라이트 지역의 조명을 특징적으로 구성하고, 이 스포트라이트 지역을 중심으로 주변부로 갈수록 점차적으로 평균적인 조명, 즉 일반 조명값이 적용될 수 있도록 하기 위한 필터로서, 아래 식을 통해 계산될 수 있다.After the spotlight region is generated, a Gaussian filter is calculated (S5). The Gaussian filter is a filter for characteristically configuring the lighting of the spotlight region and allowing the average illumination, that is, the general illumination value, to be gradually applied toward the periphery of the spotlight region, and can be calculated by the following equation.

Figure 112008055273183-pat00003
Figure 112008055273183-pat00003

상기 가우시안 필터는 스포트라이트 지역 내부의 정점들은 1 값을 가지고, 외부의 정점들은 스포트라이트 지역으로부터 거리가 멀수록 낮은 값을 가지도록 설계된 것으로, 임의의 정점 vj에 대한 스포트라이트 지역 m의 가우시안 필터(Gm)를 의미한다.The Gaussian filter of the internal spotlight area vertices have the value 1, of the outer vertices are to be designed more a distance far from the spot region so as to have a low value, the spot area m for any vertex v j Gaussian filter (G m ).

여기서, d1은 임의의 정점 vj와 스포트라이트 지역 m에서 정점의 좌표 평균을 cm라고 할 때, cm와 vj의 제1 축 방향의 거리를 의미하고, d2는 cm와 vj의 제2 축 방향의 거리를 의미하며, k1 및 k2는 각각 제1 축과 제2 축의 크기를 의미한다.Here, d 1 is any vertex v j and when that the coordinate average of the vertices in the spotlight area m c m, c m and v j the mean distance of the first axis direction, and the d 2 is c m and v j Means the distance in the second axis direction, k 1 and k 2 means the size of the first axis and the second axis, respectively.

이에 따라, 세일리언시가 높은 스포트라이트 지역을 중심으로 도 7에 도시된 바와 같은 가우시안 필터가 계산된다.Thus, a Gaussian filter as shown in FIG. 7 is calculated centering on the high spotlight area.

가우시안 필터가 계산된 이후, 스포트라이트 지역 조명값이 계산된다(S6).After the Gaussian filter is calculated, the spotlight area lighting value is calculated (S6).

이를 위하여, 먼저 조명의 방향이 설정된다. 이때, 조명의 방향은 각 스포트라이트 지역에 위치하는 정점들의 노말 벡터 평균으로 설정된다. 이후, 각 정점(vj)에서의 스포트라이트 지역 조명값(Sj)은 아래 식을 통해 계산된다.For this purpose, the direction of illumination is first set. At this time, the direction of illumination is set to the normal vector average of the vertices located in each spotlight area. Then, the spotlight area lighting value S j at each vertex v j is calculated by the following equation.

Figure 112008055273183-pat00004
Figure 112008055273183-pat00004

여기서, nj는 정점 vj의 노말 벡터를 의미하고, Lm는 스포트라이트 지역 m의 조명 방향을 의미하며, α는 조명에 대한 웨이트(Weight)를 의미한다. 이때, 웨이트란 조명의 적용 정도를 정의하는 값이다.Here, n j denotes a normal vector of vertex v j , L m denotes an illumination direction of the spotlight region m, and α denotes a weight of illumination. At this time, the weight is a value defining the degree of application of the illumination.

이를 통해, 스포트라이트 지역 조명값이 계산된 이후, 계산된 스포트라이트 지역 조명값이 최초에 계산된 3차원 이미지에 대한 일반 조명값에 더해져서 적용됨(S7)으로써, 본 발명에 따른 세일리언시 기반 조명 방법이 완료된다.Through this, after the spotlight area light value is calculated, the calculated spotlight area light value is added to the general light value for the initially calculated three-dimensional image and is applied (S7). Is completed.

본 발명에 따른 스포트라이트 지역 조명값은 설정에 따라 도 8에 도시된 바와 같이 주변 지역의 조명에 비해 어둡게 구성될 수도 있고, 주변 지역보다 밝게 구성될 수도 있다. 도 8을 참조하면, 종래의 도 1에 비해 3차원 분자 이미지의 특징적인 부분이 확실하게 나타나는 것을 알 수 있다.The spotlight area lighting value according to the present invention may be configured to be darker than the lighting of the surrounding area or may be configured to be brighter than the surrounding area as shown in FIG. 8 according to the setting. Referring to FIG. 8, it can be seen that the characteristic part of the three-dimensional molecular image appears reliably compared to FIG. 1.

이상 설명한 내용을 통해 당업자라면 본 발명의 기술사상을 일탈하지 아니하는 범위에서 다양한 변경 및 수정이 가능함을 알 수 있을 것이다. 따라서, 본 발명의 기술적 범위는 명세서의 상세한 설명에 기재된 내용으로 한정되는 것이 아니라 특허 청구의 범위에 의해 정하여져야만 할 것이다.Those skilled in the art will appreciate that various changes and modifications can be made without departing from the technical spirit of the present invention. Therefore, the technical scope of the present invention should not be limited to the contents described in the detailed description of the specification but should be defined by the claims.

도 1은 구 형태로 나타낸 3차원 분자 이미지를 일반적인 지역 조명을 사용하여 구현한 도면,1 is a view showing a three-dimensional molecular image in the form of a sphere using general area illumination,

도 2는 본 발명의 실시 예에 따른 세일리언시 기반 조명 방법을 나타내는 흐름도,2 is a flowchart illustrating a saliency-based lighting method according to an embodiment of the present invention;

도 3은 주 성분 분석 방법을 이용하여 노말 벡터의 각도 차를 계산하는 과정을 나타내는 도면,3 is a diagram illustrating a process of calculating an angle difference of a normal vector using a principal component analysis method;

도 4는 해상도별 세일리언시 계산 결과를 나타내는 도면,4 is a diagram illustrating a result of saliency calculation for each resolution;

도 5는 스포트라이트 그룹을 나타내는 도면,5 shows a spotlight group;

도 6은 스포트라이트 지역을 나타내는 도면,6 shows a spotlight area,

도 7은 본 발명의 실시 예에 따른 가우시안 필터를 나타내는 도면, 및7 illustrates a Gaussian filter according to an embodiment of the present invention, and

도 8은 본 발명의 실시 예에 따라 구현된 3차원 분자 이미지를 나타내는 도면.8 is a view showing a three-dimensional molecular image implemented in accordance with an embodiment of the present invention.

Claims (13)

세일리언시를 기반으로 하여 3차원 이미지를 조명함에 있어서,In illuminating three-dimensional images based on saliency, 상기 3차원 이미지의 각 정점에 대한 세일리언시를 계산하는 단계;Calculating a salience for each vertex of the three-dimensional image; 상기 계산된 각 정점에 대한 세일리언시 중에서 기설정된 임계값 이상의 세일리언시를 가지는 정점들을 적어도 하나의 그룹으로 분류하는 단계;Classifying vertices having a saliency greater than or equal to a predetermined threshold value among the calculated saliency for each vertex into at least one group; 상기 분류된 그룹을 통해 스포트라이트 지역을 생성하는 단계;Creating a spotlight region through the classified group; 상기 스포트라이트 지역 내부의 정점들과, 상기 스포트라이트 지역 외부의 정점들에 대한 가우시안 필터를 계산하는 단계;Calculating Gaussian filters for vertices inside the spotlight area and vertices outside the spotlight area; 상기 가우시안 필터를 이용하여 스포트라이트 지역 조명값을 계산하는 단계;Calculating a spotlight area lighting value using the Gaussian filter; 상기 3차원 이미지에 대한 일반 조명값을 계산하는 단계; 및Calculating a general illumination value for the three-dimensional image; And 상기 일반 조명값에 상기 계산된 스포트라이트 지역 조명값을 더하는 단계Adding the calculated spotlight area illumination value to the general illumination value 를 포함하는 세일리언시 기반 조명 방법.Marine based lighting method comprising a. 삭제delete 삭제delete 제1항에 있어서,The method of claim 1, 상기 기설정된 임계값 이상의 세일리언시를 가지는 정점들은 K-평균군집화 방법을 통해 각 그룹으로 분류되는 것을 특징으로 하는 세일리언시 기반 조명 방법.Said vertices with saliency above the predetermined threshold are classified into each group through a K-means clustering method. 제4항에 있어서,The method of claim 4, wherein 상기 스포트라이트 지역을 생성하는 단계는,Generating the spotlight area, 주 성분 분석 방법을 통해 상기 분류된 그룹의 중심축을 구하는 단계, 및Obtaining a central axis of the classified group through a principal component analysis method, and 상기 중심축 중 가장 큰 2개의 축을 이용하여 평면 형태를 형성하는 단계Forming a planar shape using two axes among the central axes 를 포함하고,Including, 상기 스포트라이트 지역은 상기 평면 형태인 것을 특징으로 하는 세일리언시 기반 조명 방법.Said spotlight area is said planar shape. 제5항에 있어서,The method of claim 5, 상기 평면 형태는 타원 형태를 포함하는 것을 특징으로 하는 세일리언시 기반 조명 방법.Said planar shape is a marine based illumination method characterized in that it comprises an ellipse form. 제5항 또는 제6항에 있어서,The method according to claim 5 or 6, 상기 가우시안 필터는 하기 식에 따라 계산되는 것을 특징으로 하는 세일리언시 가반 조명 방법.Said gaussian filter is calculated according to the following formula.
Figure 112008055273183-pat00007
Figure 112008055273183-pat00007
여기서, Gm는 임의의 정점 vj에 대한 스포트라이트 지역 m의 가우시안 필터를 의미하고, d1은 임의의 정점 vj와 스포트라이트 지역 m에서 정점의 좌표 평균을 cm라고 할 때, cm와 vj의 제1 축 방향의 거리를 의미하며, d2는 cm와 vj의 제2 축 방향의 거리를 의미하고, k1 및 k2는 각각 제1 축과 제2 축의 크기를 의미함.Here, G m represents a Gaussian filter of the spotlight area m for any vertex v j is, d 1 is to say a coordinate average of the vertices c m at any vertex v j and spot area m, c m and v j means the distance in the first axis direction, d 2 means the distance in the second axis direction of c m and v j , k 1 and k 2 means the size of the first axis and the second axis, respectively.
제7항에 있어서,The method of claim 7, wherein 상기 스포트라이트 지역 조명값은 하기 식에 따라 계산되는 것을 특징으로 하는 세일리언시 기반 조명 방법.Said spotlight area lighting value is calculated according to the following formula.
Figure 112010000495508-pat00008
Figure 112010000495508-pat00008
여기서, nj는 정점 vj의 노말 벡터를 의미하고, Lm는 스포트라이트 지역 m의 조명 방향을 의미하며, α는 조명에 대한 웨이트(Weight)를 의미함.Where n j denotes the normal vector of vertex v j , L m denotes the lighting direction of the spotlight area m, and α denotes the weight of the illumination.
제8항에 있어서,The method of claim 8, 상기 스포트라이트 지역 m의 조명 방향은 상기 스포트라이트 지역 m 내부에 위치하는 정점들의 노말 벡터 평균으로 설정되는 것을 특징으로 하는 세일리언시 기반 조명 방법.The illumination direction of the spotlight zone m is set to a normal vector average of vertices located within the spotlight zone m. 삭제delete 제1항에 있어서,The method of claim 1, 상기 3차원 이미지의 각 정점에 대한 세일리언시를 계산하는 단계는,Computing the salience for each vertex of the three-dimensional image, 상기 3차원 이미지를 구성하는 메쉬를 간략화한 저해상도 메쉬를 생성하는 단계; 및Generating a low resolution mesh that simplifies the mesh constituting the 3D image; And 상기 저해상도 메쉬의 각 정점에 대한 세일리언시를 계산하는 단계Calculating a salary for each vertex of the low resolution mesh 를 포함하는 것을 특징으로 하는 세일리언시 기반 조명 방법.Marine based lighting method comprising a. 제1항에 있어서,The method of claim 1, 상기 3차원 이미지의 각 정점은 상기 3차원 이미지를 구성하는 메쉬의 각 꼭지점인 것을 특징으로 하는 세일리언시 기반 조명 방법.Each vertex of the three-dimensional image is a marine-based lighting method, characterized in that each vertex of the mesh constituting the three-dimensional image. 제11항에 있어서,The method of claim 11, 상기 3차원 이미지의 각 정점은 상기 저해상도 메쉬의 각 꼭지점인 것을 특징으로 하는 세일리언시 기반 조명 방법.Said vertices of said three-dimensional image are each vertex of said low resolution mesh.
KR1020080074904A 2008-07-31 2008-07-31 Method for saliency-based lighting for feature emphasis KR100952749B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080074904A KR100952749B1 (en) 2008-07-31 2008-07-31 Method for saliency-based lighting for feature emphasis

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080074904A KR100952749B1 (en) 2008-07-31 2008-07-31 Method for saliency-based lighting for feature emphasis

Publications (2)

Publication Number Publication Date
KR20100013402A KR20100013402A (en) 2010-02-10
KR100952749B1 true KR100952749B1 (en) 2010-04-13

Family

ID=42087391

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080074904A KR100952749B1 (en) 2008-07-31 2008-07-31 Method for saliency-based lighting for feature emphasis

Country Status (1)

Country Link
KR (1) KR100952749B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020154833A1 (en) 2001-03-08 2002-10-24 Christof Koch Computation of intrinsic perceptual saliency in visual environments, and applications
WO2011152893A1 (en) 2010-02-10 2011-12-08 California Institute Of Technology Methods and systems for generating saliency models through linear and/or nonlinear integration
CN109145716B (en) * 2018-07-03 2019-04-16 南京思想机器信息科技有限公司 Boarding gate verifying bench based on face recognition

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001092988A (en) 1999-09-20 2001-04-06 Namco Ltd Spot light source display device
KR20050054730A (en) * 2003-12-05 2005-06-10 한국전자통신연구원 Hdri-based shaders with color temperature control
KR20060070174A (en) * 2004-12-20 2006-06-23 한국전자통신연구원 Rendering apparatus and method for real-time global illumination in real light environment
KR20080045392A (en) * 2006-11-20 2008-05-23 중앙대학교 산학협력단 Method for light environment reconstruction for image synthesis and storage medium storing program therefor

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001092988A (en) 1999-09-20 2001-04-06 Namco Ltd Spot light source display device
KR20050054730A (en) * 2003-12-05 2005-06-10 한국전자통신연구원 Hdri-based shaders with color temperature control
KR20060070174A (en) * 2004-12-20 2006-06-23 한국전자통신연구원 Rendering apparatus and method for real-time global illumination in real light environment
KR20080045392A (en) * 2006-11-20 2008-05-23 중앙대학교 산학협력단 Method for light environment reconstruction for image synthesis and storage medium storing program therefor

Also Published As

Publication number Publication date
KR20100013402A (en) 2010-02-10

Similar Documents

Publication Publication Date Title
US9430865B2 (en) Real-time dynamic non-planar projection apparatus and method
JPWO2007083494A1 (en) Graphic recognition apparatus, graphic recognition method, and graphic recognition program
CN104598915A (en) Gesture recognition method and gesture recognition device
CN114746904A (en) Three-dimensional face reconstruction
CN110378367B (en) Acquisition method, device and system of generative countermeasure network for phase unwrapping
CN105469386B (en) A kind of method and device of determining stereoscopic camera height and pitch angle
US20200082566A1 (en) Methods and apparatus for processing image data for machine vision
US20200082209A1 (en) Methods and apparatus for generating a dense field of three dimensional data for machine vision
CN104991415B (en) For the optical proximity correction method of specific repetitive pattern
KR100952749B1 (en) Method for saliency-based lighting for feature emphasis
CN106033608A (en) Target contour detection method of biomimetic smooth tracking eye movement information processing mechanism
CN110555339A (en) target detection method, system, device and storage medium
CN109542145B (en) Automatic light path collimation method of high-power laser device
CN110110665B (en) Detection method for hand area in driving environment
CN104573635A (en) Miniature height recognition method based on three-dimensional reconstruction
CN112815846A (en) 2D and 3D composite high-precision vision device and measuring method
CN105530505B (en) 3-D view conversion method and device
CN114581433B (en) Method and system for acquiring surface morphology detection image in metal ball cavity
CN111696146A (en) Face model reconstruction method, face model reconstruction system, image processing system and storage medium
Kalutskiy et al. Method of moving object detection from mobile vision system
CN103444188B (en) For the color of point of interest is carried out the system of colors countenance, method and computer program product
KR101710152B1 (en) Apparatus for measuring skin structure
CN104766085B (en) A kind of multiple dimensioned pattern recognition method
CN106803250A (en) With reference to the Medical Ultrasonic Image Segmentation method of global and local area information
JP2004021373A (en) Method and apparatus for estimating body and optical source information

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130329

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20140326

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20150417

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20160325

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee