KR20190061171A - Method and apparatus for generating steganography analysis model - Google Patents

Method and apparatus for generating steganography analysis model Download PDF

Info

Publication number
KR20190061171A
KR20190061171A KR1020170159247A KR20170159247A KR20190061171A KR 20190061171 A KR20190061171 A KR 20190061171A KR 1020170159247 A KR1020170159247 A KR 1020170159247A KR 20170159247 A KR20170159247 A KR 20170159247A KR 20190061171 A KR20190061171 A KR 20190061171A
Authority
KR
South Korea
Prior art keywords
mesh model
model
mesh
feature vector
difference
Prior art date
Application number
KR1020170159247A
Other languages
Korean (ko)
Other versions
KR102054347B1 (en
Inventor
이흥규
김동규
장한얼
최학열
손정호
최성희
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020170159247A priority Critical patent/KR102054347B1/en
Publication of KR20190061171A publication Critical patent/KR20190061171A/en
Application granted granted Critical
Publication of KR102054347B1 publication Critical patent/KR102054347B1/en

Links

Images

Classifications

    • G06F17/20
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/008Vector quantisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Abstract

According to an embodiment of the present invention, a method for generating a steganography analysis model comprises the steps of: generating a second 3D mesh model obtained by smoothing a first 3D mesh model; extracting a first feature vector extracted based on the difference of edge normals of the first and second 3D mesh models, a second feature vector extracted based on the difference of mean curvatures of the first and second 3D mesh models, and a third feature vector extracted based on total curvatures of the first and second 3D mesh models; and performing machine learning on the basis of information on the first to third feature vectors to generate a model for determining whether information hidden in a target 3D mesh model exists.

Description

스테가노그래피 분석 모델 생성 방법 및 장치{METHOD AND APPARATUS FOR GENERATING STEGANOGRAPHY ANALYSIS MODEL}METHOD AND APPARATUS FOR GENERATING STEGANOGRAPHY ANALYSIS MODEL < RTI ID = 0.0 >

본 발명은 스테가노그래피(steganography) 분석 모델 생성 방법 및 장치에 관한 것으로서, 보다 자세하게는 3D 메쉬 모델 내에 숨겨진 정보가 존재하는 지 여부를 판별하는 스테가노그래피 분석 모델 생성 방법 및 장치에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and apparatus for generating a steganography analysis model, and more particularly, to a method and apparatus for steganographic analysis model generation for determining whether information hidden in a 3D mesh model exists.

스테가노그래피란 암호화 기법의 하나로서 이미지, 비디오, 오디오와 같은 다양한 유형의 디지털 컨텐츠에 제3자로 하여금 특별한 정보가 포함되었다고 파악하기 어렵게끔 정보를 삽입하여 전송하는 기법이다. Steganography is a technique for inserting and transmitting information in a variety of types of digital contents such as image, video, and audio, making it difficult for a third party to understand that special information is included.

이러한 스테가노그래피 기법은 보안 기술이 필요한 영역에 활발히 사용되고 있으나, 악성 코드의 유포 또는 테러리스트 간의 메시지 전송 수단 등에 악용될 수 있기 때문에 어떠한 컨텐츠에 스테가노그래피 기법이 사용되어 숨겨진 정보가 존재하는지 분석하는 기술이 요구되고 있다. Although this steganography technique is actively used in areas where security technology is required, it can be exploited for the purpose of distributing malicious codes or transmitting messages between terrorists. Therefore, a technique of analyzing the existence of hidden information by using steganographic technique .

특히, 스테가노그래피 기법이 적용될 수 있는 컨텐츠 중 3D 메쉬 모델의 경우, 3D 메쉬 모델을 구성하는 정점(vertex), 모서리(edge), 면(face) 등의 구성요소가 3D 메쉬 모델 마다 각기 상이하기 때문에 숨겨진 정보가 존재하는지 분석하기 위한 범용적인 판단 요소를 특정하는 것에 대한 어려움이 있으며, 더하여 3D 메쉬 모델에서 추출한 요소들은 선형 종속적(linear dependent)인 관계에 있어 기계 학습에 적용시켰을 때 판단의 정확도를 높이는데 어려움이 존재한다. Particularly, in the case of the 3D mesh model among the contents to which the steganography technique can be applied, the components such as the vertex, edge, and face constituting the 3D mesh model are different for each 3D mesh model In addition, there is a difficulty in specifying general judgment factors for analyzing whether hidden information exists. In addition, the elements extracted from the 3D mesh model are linear dependency. Therefore, when applied to machine learning, There is a difficulty in height.

한국 공개특허공보 제10-2017-0095508호: 이미지를 이용하여 암호화된 정보를 전송하는 방법Korean Patent Laid-Open Publication No. 10-2017-0095508: Method of transmitting encrypted information using an image

본 발명의 실시예에서 해결하고자 하는 과제는 3D 메쉬 모델에 숨겨진 정보가 존재하는지 분석하는 기술을 제공하는 것이다. A problem to be solved by an embodiment of the present invention is to provide a technique for analyzing whether hidden information exists in a 3D mesh model.

다만, 본 발명의 실시예가 이루고자 하는 기술적 과제는 이상에서 언급한 과제로 제한되지 않으며, 이하에서 설명할 내용으로부터 통상의 기술자에게 자명한 범위 내에서 다양한 기술적 과제가 도출될 수 있다.It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are intended to provide further explanation of the invention as claimed.

본 발명의 일 실시예에 따른 스테가노그래피 분석 모델 생성 방법은 제1 3D 메쉬 모델을 평활화(smoothing technique)한 제2 3D 메쉬 모델을 생성하는 단계, 상기 제1 3D 메쉬 모델의 edge normal 및 상기 제2 3D 메쉬 모델의 edge normal의 차이를 기초로 추출한 제1 특징 벡터, 상기 제1 3D 메쉬 모델의 mean curvature 및 상기 제2 3D 메쉬 모델의 mean curvature의 차이를 기초로 추출한 제2 특징 벡터 및 상기 제1 3D 메쉬 모델의 total curvature 및 상기 제2 3D 메쉬 모델의 total curvature의 차이를 기초로 추출한 제3 특징 벡터를 추출하는 단계 및 상기 제1, 제2 및 제3 특징 벡터에 관한 정보를 기초로 기계 학습을 수행하여 타겟 3D 메쉬 모델 내에 숨겨진 정보가 존재하는 지 판별하는 모델을 생성하는 단계를 포함한다. A method of generating a steganographic analysis model according to an embodiment of the present invention includes generating a second 3D mesh model obtained by smoothing a first 3D mesh model, A second feature vector extracted based on a difference between a first feature vector extracted based on a difference of an edge normal of the second 3D mesh model, a mean curvature of the first 3D mesh model, and a mean curvature of the second 3D mesh model, Extracting a third feature vector extracted based on a difference between a total curvature of the first 3D mesh model and a total curvature of the second 3D mesh model and a second feature vector on the basis of the information about the first, And generating a model that determines whether hidden information exists in the target 3D mesh model.

이때 상기 제1 3D 메쉬 모델은 원본에 해당하는 커버 메쉬(cover mesh) 및 상기 원본에 숨겨진 정보가 삽입된 스테고 메쉬(stego mesh)를 포함할 수 있다. At this time, the first 3D mesh model may include a cover mesh corresponding to the original and a stego mesh having embedded information hidden in the original.

또한 상기 추출하는 단계는 각각의 특징 벡터에 대하여 평균(mean) 벡터, 분산(variance) 벡터, 왜도(skewness) 벡터 및 첨도(kurtosis) 벡터를 생성하는 단계를 포함할 수 있다. The extracting may also include generating a mean vector, a variance vector, a skewness vector, and a kurtosis vector for each feature vector.

더하여 입력되는 벡터의 차원 수를 변형시켜 서로 간에 선형 독립적(linearly independent)인 관계를 갖도록 하는 커널 공간에 상기 각각의 특징 벡터로부터 생성된 상기 평균 벡터, 분산 벡터, 왜도 벡터 및 첨도 벡터를 입력하여 상기 각각이 변환된 선형 독립 벡터를 생성하는 단계를 더 포함하고, 상기 제1, 제2 및 제3 특징 벡터에 관한 정보는 상기 선형 독립 벡터를 포함할 수 있다. The mean vector, the variance vector, the degree vector, and the kurtosis vector generated from the respective feature vectors are input to a kernel space which has a linearly independent relationship with each other by modifying the number of dimensions of the input vector The method of claim 1, further comprising generating each of the transformed linear independent vectors, wherein the information about the first, second, and third feature vectors may comprise the linear independent vector.

아울러 상기 커널 공간은 homogeneous kernel map 알고리즘을 기초로 생성될 수 있다. In addition, the kernel space can be created based on a homogeneous kernel map algorithm.

또한 상기 edge normal은 3D 메쉬 모델에서 공통된 모서리(edge)를 공유하는 각 메쉬 조각에 대하여 상기 각 메쉬 조각의 면적 및 상기 각 메쉬 조각의 무게 중심에서의 법선 벡터를 곱하여 도출된 벡터들의 합일 수 있다. The edge normal may be the sum of the vectors obtained by multiplying the area of each mesh piece and the normal vector at the center of gravity of each mesh piece with respect to each mesh piece sharing a common edge in the 3D mesh model.

더하여 상기 제1 특징 벡터는 상기 제1 3D 메쉬 모델의 edge normal과 상기 제2 3D 메쉬 모델의 edge normal 의 내적에 대한 상기 제1 3D 메쉬 모델의 edge normal의 l2-norm 값과 상기 제2 3D 메쉬 모델의 edge normal의 l2-norm 값을 곱한 값의 비율에 역코사인을 취한 값일 수 있다. In addition, the first feature vector is calculated by multiplying the l2-norm value of the edge normal of the first 3D mesh model with the inner normal of the edge normal of the first 3D mesh model and the edge normal of the second 3D mesh model, It may be a value obtained by taking an inverse cosine of the ratio of the value of the model's edge normal multiplied by the l2-norm value.

아울러 상기 mean curvature는 3D 메쉬 모델의 정점(vertex)에 PCA(principal component analysis) 기법을 적용하여 도출된 값의 평균일 수 있다. In addition, the mean curvature may be an average value obtained by applying a principal component analysis (PCA) technique to a vertex of the 3D mesh model.

더불어 상기 total curvature는 3D 메쉬 모델의 정점(vertex)에 PCA(principal component analysis) 기법을 적용하여 도출된 값의 총합일 수 있다. In addition, the total curvature may be a sum of values obtained by applying a principal component analysis (PCA) technique to a vertex of the 3D mesh model.

또한 상기 추출하는 단계는 직교 좌표계에서 상기 제1 3D 메쉬 모델의 x축값 및 상기 제2 3D 메쉬 모델의 x축값의 차이를 기초로 추출한 제4 특징 벡터, 상기 직교 좌표계에서 상기 제1 3D 메쉬 모델의 y축값 및 상기 제2 3D 메쉬 모델의 y축값의 차이를 기초로 추출한 제5 특징 벡터, 상기 직교 좌표계에서 상기 제1 3D 메쉬 모델의 z축값 및 상기 제2 3D 메쉬 모델의 z축값의 차이를 기초로 추출한 제6 특징 벡터, 라플라시안 좌표계(laplacian coordinate system)에서 상기 제1 3D 메쉬 모델의 x축값 및 상기 제2 3D 메쉬 모델의 x축값의 차이를 기초로 추출한 제7 특징 벡터, 상기 라플라시안 좌표계에서 상기 제1 3D 메쉬 모델의 y축값 및 상기 제2 3D 메쉬 모델의 y축값의 차이를 기초로 추출한 제8 특징 벡터, 상기 라플라시안 좌표계에서 상기 제1 3D 메쉬 모델의 y축값 및 상기 제2 3D 메쉬 모델의 y축값의 차이를 기초로 추출한 제9 특징 벡터, 상기 직교 좌표계에서 상기 제1 3D 메쉬 모델의 정점의 좌표 및 상기 제2 3D 메쉬 모델의 정점의 좌표의 차이를 기초로 추출한 제10 특징 벡터, 상기 라플라시안 좌표계에서 상기 제1 3D 메쉬 모델의 정점의 좌표 및 상기 제2 3D 메쉬 모델의 정점의 좌표의 차이를 기초로 추출한 제11 특징 벡터, 상기 제1 3D 메쉬 모델에서 모서리를 공유하는 두 면의 이면각(dihedral angle) 및 상기 제2 3D 메쉬 모델에서 모서리를 공유하는 두 면의 이면각의 차이를 기초로 추출되는 제12 특징 벡터, 상기 제1 3D 메쉬 모델의 면(face)과 상기 제2 3D 메쉬 모델의 면의 각도 차이를 기초로 추출되는 제13 특징 벡터, 상기 제1 3D 메쉬 모델의 vertex normal 및 상기 제2 3D 메쉬 모델의 vertex normal의 차이를 기초로 추출되는 제14 특징 벡터, 상기 제1 3D 메쉬 모델의 gaussian curvature 및 상기 제2 3D 메쉬 모델의 gaussian curvature의 차이를 기초로 추출되는 제15 특징 벡터 및 상기 제1 3D 메쉬 모델의 curvature ratio 및 상기 제2 3D 메쉬 모델의 curvature ratio의 차이를 기초로 추출되는 제16 특징 벡터를 추출하는 단계를 포함하고, 상기 모델을 생성하는 단계는 상기 제4 특징 벡터 내지 제16 특징 벡터에 관한 정보를 추가하여 기계 학습을 수행할 수 있다. The extracting may further include extracting a fourth feature vector extracted on the basis of a difference between an x-axis value of the first 3D mesh model and an x-axis value of the second 3D mesh model in an orthogonal coordinate system, a fifth feature vector extracted based on a difference between a y-axis value and a y-axis value of the second 3D mesh model, a difference between a z-axis value of the first 3D mesh model and a z-axis value of the second 3D mesh model in the orthogonal coordinate system A seventh feature vector extracted based on a difference between an x-axis value of the first 3D mesh model and an x-axis value of the second 3D mesh model in a laplacian coordinate system, a sixth feature vector extracted from the laplacian coordinate system, An eighth feature vector extracted based on a difference between a y-axis value of the first 3D mesh model and a y-axis value of the second 3D mesh model, a y-axis value of the first 3D mesh model in the laplacian coordinate system, Based on the difference between the coordinates of the vertexes of the first 3D mesh model and the coordinates of the vertices of the second 3D mesh model in the orthogonal coordinate system, the tenth feature vector extracted based on the difference of the y- An eleventh feature vector extracted based on a feature vector, a coordinate of a vertex of the first 3D mesh model and a coordinate of a vertex of the second 3D mesh model in the Laplacian coordinate system, A twelfth feature vector extracted on the basis of a dihedral angle of two sides and a difference of a back angle of two surfaces sharing an edge in the second 3D mesh model, a face of the first 3D mesh model, Extracted from the difference between a vertex normal of the first 3D mesh model and a vertex normal of the second 3D mesh model, a thirteenth feature vector extracted based on the angle difference of the face of the second 3D mesh model, vector, A 15th feature vector extracted based on a difference between a gaussian curvature of the first 3D mesh model and a gaussian curvature of the second 3D mesh model, a curvature ratio of the first 3D mesh model, and a curvature ratio of the second 3D mesh model Extracting a 16th feature vector extracted based on the difference between the fourth feature vector and the 16th feature vector, and generating the model may perform machine learning by adding information on the fourth feature vector to the 16th feature vector.

본 발명의 실시예에 따르면, 3D 메쉬 모델의 edge normal, mean curvature 및 total curvature로부터 도출한 특징 벡터의 차원 수를 일치시킴으로써, 3D 메쉬 모델마다 정점, 모서리, 면 등의 구성요소가 각기 상이하여도 범용적으로 사용할 수 있는 판단 요소를 생성할 수 있다. According to the embodiment of the present invention, by matching the number of dimensions of the feature vectors derived from the edge normal, mean curvature and total curvature of the 3D mesh model, the components such as vertices, edges, and faces are different for each 3D mesh model It is possible to generate a judgment element which can be used universally.

또한 homogeneous kernel map 알고리즘을 통해 3D 메쉬 모델로부터 추출된 특징 벡터들이 선형 독립적(linear independent)인 관계를 갖도록 변형하여 기계 학습되는 모델의 정확성을 향상시킬 수 있다. In addition, the homogeneous kernel map algorithm can improve the accuracy of the machine-learned model by modifying the feature vectors extracted from the 3D mesh model to have a linear independent relationship.

도 1은 본 발명의 일 실시예에 따른 3D 메쉬 모델의 구조를 설명하기 위한 예시도이다.
도 2는 본 발명의 일 실시예에 따른 스테가노그래피 분석 모델 생성 방법의 프로세스를 도시하는 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 스테가노그래피 분석 모델의 성능을 측정하기 위한 AUC(area under the curve) 지표를 설명하기 위한 그래프이다.
도 4는 본 발명의 일 실시예에 따른 스테가노그래피 분석 모델의 검출 오류율(detection error)을 설명하기 위한 그래프이다.
FIG. 1 is a diagram illustrating an exemplary structure of a 3D mesh model according to an exemplary embodiment of the present invention. Referring to FIG.
2 is a flow chart illustrating a process of a steganographic analysis model generation method according to an embodiment of the present invention.
FIG. 3 is a graph for illustrating an area under the curve (AUC) index for measuring the performance of the steganographic analysis model according to an embodiment of the present invention.
4 is a graph for explaining a detection error of the steganographic analysis model according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다.  그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명의 범주는 청구항에 의해 정의될 뿐이다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of achieving them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. It should be understood, however, that the invention is not limited to the disclosed embodiments, but may be embodied in various forms and should not be construed as limited to the embodiments set forth herein, To fully disclose the scope of the invention to a person skilled in the art, and the scope of the invention is only defined by the claims.

본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명은 본 발명의 실시예들을 설명함에 있어 실제로 필요한 경우 외에는 생략될 것이다.  그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다.  그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In describing embodiments of the present invention, a detailed description of well-known functions or constructions will be omitted unless otherwise described in order to describe embodiments of the present invention. The following terms are defined in consideration of the functions in the embodiments of the present invention, which may vary depending on the intention of the user, the intention or the custom of the operator. Therefore, the definition should be based on the contents throughout this specification.

도면에 표시되고 아래에 설명되는 기능 블록들은 가능한 구현의 예들일 뿐이다. 다른 구현들에서는 상세한 설명의 사상 및 범위를 벗어나지 않는 범위에서 다른 기능 블록들이 사용될 수 있다. 또한 본 발명의 하나 이상의 기능 블록이 개별 블록들로 표시되지만, 본 발명의 기능 블록들 중 하나 이상은 동일 기능을 실행하는 다양한 하드웨어 및 소프트웨어 구성들의 조합일 수 있다.The functional blocks shown in the drawings and described below are merely examples of possible implementations. In other implementations, other functional blocks may be used without departing from the spirit and scope of the following detailed description. Also, while one or more functional blocks of the present invention are represented as discrete blocks, one or more of the functional blocks of the present invention may be a combination of various hardware and software configurations that perform the same function.

또한 어떤 구성 요소들을 포함한다는 표현은 개방형의 표현으로서 해당 구성 요소들이 존재하는 것을 단순히 지칭할 뿐이며, 추가적인 구성 요소들을 배제하는 것으로 이해되어서는 안 된다.Also, to the extent that the inclusion of certain elements is merely an indication of the presence of that element as an open-ended expression, it should not be understood as excluding any additional elements.

나아가 어떤 구성 요소가 다른 구성 요소에 연결되어 있다거나 접속되어 있다고 언급될 때에는, 그 다른 구성 요소에 직접적으로 연결 또는 접속되어 있을 수도 있지만, 중간에 다른 구성 요소가 존재할 수도 있다고 이해되어야 한다. Further, when a component is referred to as being connected or connected to another component, it may be directly connected or connected to the other component, but it should be understood that there may be other components in between.

또한 '제1, 제2' 등과 같은 표현은 복수의 구성들을 구분하기 위한 용도로만 사용된 표현으로써, 구성들 사이의 순서나 기타 특징들을 한정하지 않는다. Also, the expressions such as 'first, second', etc. are used only to distinguish a plurality of configurations, and do not limit the order or other features between configurations.

이하에서는 도면들을 참조하여 본 발명의 실시예들에 대해 설명하도록 한다. Hereinafter, embodiments of the present invention will be described with reference to the drawings.

도 1은 본 발명의 일 실시예에 따른 3D 메쉬 모델의 구조를 설명하기 위한 예시도이다. FIG. 1 is a diagram illustrating an exemplary structure of a 3D mesh model according to an exemplary embodiment of the present invention. Referring to FIG.

도 1에 도시된 바와 같이 3D 메쉬 모델은 정점(vertex), 모서리(edge), 면(face)으로 이루어진 다각형(polygon)의 집합으로 생성되는 기하학적 모형의 데이터로서, 컴퓨터 이용 설계(computer-aided design) 및 3차원 프린트 등의 다양한 산업에서 사용되고 있다. 이때 스테가노그래피 기법(예: 한국 특허출원번호 10-2017-0089752: 분할 기법을 이용한 3차원 메쉬 모델 워터마킹 방법 및 장치)은 3차원 메쉬 모델에 제3자로 하여금 특별한 정보가 포함되었다고 파악하기 어렵게끔 정보를 삽입할 수 있다. As shown in FIG. 1, the 3D mesh model is a geometric model data generated by a set of polygons having vertices, edges, and faces, and is a computer-aided design ) And three-dimensional printing. At this time, steganographic techniques (for example, Korean Patent Application No. 10-2017-0089752: 3D mesh model watermarking method and apparatus using segmentation technique) have difficulty in recognizing that a third party includes special information in a 3D mesh model Information can be inserted.

이러한 스테가노그래피 기법은 보안 기술이 필요한 영역에 활발히 사용되고 있으나, 악성 코드의 유포 또는 테러리스트 간의 메시지 전송 수단 등에 악용될 수 있기 때문에 어떠한 컨텐츠에 스테가노그래피 기법이 사용되어 숨겨진 정보가 존재하는지 분석하는 기술이 요구되고 있다. Although this steganography technique is actively used in areas where security technology is required, it can be exploited for the purpose of distributing malicious codes or transmitting messages between terrorists. Therefore, a technique of analyzing the existence of hidden information by using steganographic technique .

이에 따라, 본 발명의 실시예는 3D 메쉬 모델에 숨겨진 정보가 존재하는지 분석하는 기술을 제공하고자 하며, 도 2 내지 도 4와 함께 본 발명의 실시예를 구현하는 방법 및 본 발명의 실시예를 통해 생성한 모델의 성능을 설명한다. Accordingly, embodiments of the present invention provide a technique for analyzing whether hidden information exists in a 3D mesh model, and a method for implementing an embodiment of the present invention together with FIGS. 2 to 4 and an embodiment of the present invention The performance of the generated model is described.

도 2는 본 발명의 일 실시예에 따른 스테가노그래피 분석 모델 생성 방법의 프로세스를 도시하는 흐름도이다. 본 발명의 일 실시예에 따른 스테가노그래피 분석 모델 생성 방법은 하나 이상의 프로세서에 의해 수행될 수 있으며 각 단계를 설명하면 다음과 같다.2 is a flow chart illustrating a process of a steganographic analysis model generation method according to an embodiment of the present invention. The method of generating a steganographic analysis model according to an embodiment of the present invention can be performed by one or more processors, and each step will be described as follows.

우선, 평활화 기법(smoothing technique)이 적용되지 않은 원본 제1 3D 메쉬 모델에 대해 평활화 기법을 적용하여 제2 3D 메쉬 모델을 생성한다(S210). First, a second 3D mesh model is generated by applying a smoothing technique to an original first 3D mesh model to which a smoothing technique is not applied (S210).

3D 메쉬 모델에 스테가노그래피 기법이 적용되어 특정 정보가 삽입되는 경우, 인간의 눈으로는 식별하기 어렵지만 3D 메쉬 모델의 일정 부분은 형태가 변하게 된다. 이때 숨겨진 정보가 삽입되지 않은 커버 메쉬(cover mesh)가 제1 3D 메쉬 모델인 경우, 제1 3D 메쉬 모델과 제2 3D 메쉬 모델의 차이에 비해, 숨겨진 정보가 삽입된 스테고 메쉬(stego mesh)가 제1 3D 메쉬 모델인 경우의 제1 3D 메쉬 모델과 제2 3D 메쉬 모델의 차이가 상대적으로 클 수 있다. 이러한 점을 기초로, 본 발명의 실시예는 제1 3D 메쉬 모델로부터 제2 3D 메쉬 모델을 생성하여 제1 3D 메쉬 모델과 제2 3D 메쉬 모델의 차이를 기초로 도출된 특징 벡터를 학습 데이터로 사용한다. When a steganographic technique is applied to a 3D mesh model to insert specific information, the shape of a certain portion of the 3D mesh model changes although it is difficult to identify with the human eye. In this case, when the cover mesh in which the hidden information is not inserted is the first 3D mesh model, compared with the difference between the first 3D mesh model and the second 3D mesh model, a stego mesh in which hidden information is embedded The difference between the first 3D mesh model and the second 3D mesh model in the case of the first 3D mesh model may be relatively large. Based on this point, the embodiment of the present invention generates a second 3D mesh model from the first 3D mesh model and extracts a feature vector derived on the basis of the difference between the first 3D mesh model and the second 3D mesh model as learning data use.

이때 타겟 3D 메쉬 모델에 숨겨진 정보가 존재하는지의 구분을 모델을 학습하기 위해, 제1 3D 메쉬 모델은 숨겨진 정보가 삽입되지 않은 커버 메쉬 및 숨겨진 정보가 삽입된 스테고 메쉬를 포함할 수 있다. In this case, in order to learn a classification model of whether there is hidden information in the target 3D mesh model, the first 3D mesh model may include a cover mesh in which hidden information is not inserted and a stega mesh in which hidden information is inserted.

다음으로, 제1 3D 메쉬 모델과 제2 3D 메쉬 모델의 차이를 기초로 복수의 특징 벡터를 추출한다(S220).Next, a plurality of feature vectors are extracted based on the difference between the first 3D mesh model and the second 3D mesh model (S220).

이때 본 발명의 실시예는 제1 3D 메쉬 모델의 edge normal 및 제2 3D 메쉬 모델의 edge normal의 차이를 기초로 제1 특징 벡터를 추출할 수 있다. At this time, the embodiment of the present invention can extract the first feature vector based on the difference between the edge normal of the first 3D mesh model and the edge normal of the second 3D mesh model.

여기서, 3D 메쉬 모델의 edge normal이란 아래 수학식 1을 통해 구할 수 있는 특징 벡터로서, 3D 메쉬 모델에서 공통된 모서리(

Figure pat00001
)를 공유하는 모든 메쉬 조각(
Figure pat00002
)의 각 메쉬 조각(f)에 대하여 각 메쉬 조각의 면적(Area(f)) 및 각 메쉬 조각의 무게 중심에서의 법선 벡터(
Figure pat00003
)를 곱하여 도출된 벡터들의 합(
Figure pat00004
)을 의미한다. Here, the edge normal of the 3D mesh model is a feature vector that can be obtained by the following equation (1)
Figure pat00001
All mesh pieces that share
Figure pat00002
(Area (f)) of each mesh piece with respect to each mesh piece (f) of the mesh piece and a normal vector at the center of gravity of each mesh piece
Figure pat00003
) ≪ / RTI >
Figure pat00004
).

Figure pat00005
Figure pat00005

이에 따라, 제1 특징 벡터(

Figure pat00006
)는 아래 수학식 2와 같이, 제1 3D 메쉬 모델의 edge normal(
Figure pat00007
)과 제2 3D 메쉬 모델의 edge normal(
Figure pat00008
)의 내적(<
Figure pat00009
>)에 대한 제1 3D 메쉬 모델 edge normal의 l2-norm(
Figure pat00010
)과 제2 3D 메쉬 모델 edge normal l2-norm(
Figure pat00011
)을 곱한 값의 역코사인(arccos)을 통해 도출할 수 있다. Accordingly, the first feature vector (
Figure pat00006
) Is expressed by the following equation (2): edge normal (
Figure pat00007
) And the edge normal of the second 3D mesh model (
Figure pat00008
) Of the inner (<
Figure pat00009
>) Of the first 3D mesh model edge normal to the l2-norm (
Figure pat00010
) And the second 3D mesh model edge normal l2-norm (
Figure pat00011
(Arccos) of the value obtained by multiplying the sum of squared values (arccos).

Figure pat00012
Figure pat00012

또한 본 발명의 실시예는 제1 3D 메쉬 모델의 mean curvature 및 제2 3D 메쉬 모델의 mean curvature의 차이를 기초로 추출한 제2 특징 벡터를 추출할 수 있다. Also, the embodiment of the present invention can extract the second feature vector extracted based on the difference between the mean curvature of the first 3D mesh model and the mean curvature of the second 3D mesh model.

여기서, mean curvature(

Figure pat00013
)는 3D 메쉬 모델의 정점(
Figure pat00014
)에 PCA(principal component analysis) 기법을 적용하여 도출된 값(
Figure pat00015
)들의 평균을 의미한다. 다만, 간소화를 위해 아래 수학식 3과 같이 PCA 기법을 통해 구해진 값의 최대값(
Figure pat00016
)과 최소값(
Figure pat00017
)의 평균으로도 구할 수 있다. 여기서, PCA 기법은 공지된 기술로서 자세한 설명은 생략한다. Here, the mean curvature (
Figure pat00013
) Is the vertex of the 3D mesh model (
Figure pat00014
) Derived from the principal component analysis (PCA)
Figure pat00015
). However, for simplification, the maximum value of the value obtained through the PCA technique as shown in Equation 3 below (
Figure pat00016
) And the minimum value
Figure pat00017
) Can be obtained as an average of. Here, the PCA technique is a known technique, and a detailed description thereof will be omitted.

Figure pat00018
Figure pat00018

이에 따라, 제2 특징 벡터(

Figure pat00019
)는 아래 수학식 4와 같이, 제1 3D 메쉬 모델의 mean curvature(
Figure pat00020
)과 제2 3D 메쉬 모델의 mean curvature(
Figure pat00021
)의 차를 통해 구할 수 있다. Accordingly, the second feature vector (
Figure pat00019
) Is the mean curvature of the first 3D mesh model (
Figure pat00020
) And the mean curvature of the second 3D mesh model (
Figure pat00021
). &Lt; / RTI &gt;

Figure pat00022
Figure pat00022

더불어 본 발명의 실시예는 제1 3D 메쉬 모델의 total curvature 및 제2 3D 메쉬 모델의 total curvature의 차이를 기초로 추출한 제3 특징 벡터를 추출할 수 있다. In addition, the embodiment of the present invention can extract the third feature vector extracted based on the difference between the total curvature of the first 3D mesh model and the total curvature of the second 3D mesh model.

여기서, total curvature(

Figure pat00023
)는 3D 메쉬 모델의 정점(
Figure pat00024
)에 PCA(principal component analysis) 기법을 적용하여 도출된 값(
Figure pat00025
)들의 합을 의미한다. 다만, 간소화를 위해 아래 수학식 5와 같이 PCA 기법을 통해 구해진 값의 최대값(
Figure pat00026
)과 최소값(
Figure pat00027
)의 합으로도 구할 수 있다. Here, total curvature (
Figure pat00023
) Is the vertex of the 3D mesh model (
Figure pat00024
) Derived from the principal component analysis (PCA)
Figure pat00025
). However, for simplification, the maximum value of the value obtained through the PCA technique as shown in Equation (5) below
Figure pat00026
) And the minimum value
Figure pat00027
) Can be obtained.

Figure pat00028
Figure pat00028

이에 따라, 제3 특징 벡터(

Figure pat00029
)는 아래 수학식 6과 같이, 제1 3D 메쉬 모델의 total curvature(
Figure pat00030
)와 제2 3D 메쉬 모델의 total curvature(
Figure pat00031
)의 차를 통해 구할 수 있다.Thus, the third feature vector (
Figure pat00029
) Is the total curvature of the first 3D mesh model (
Figure pat00030
) And the total curvature of the second 3D mesh model (
Figure pat00031
). &Lt; / RTI &gt;

Figure pat00032
Figure pat00032

이외에도, 본 발명의 실시예는 직교 좌표계에서 제1 3D 메쉬 모델의 x축값 및 제2 3D 메쉬 모델의 x축값의 차이를 기초로 추출한 제4 특징 벡터, 직교 좌표계에서 제1 3D 메쉬 모델의 y축값 및 제2 3D 메쉬 모델의 y축값의 차이를 기초로 추출한 제5 특징 벡터, 직교 좌표계에서 제1 3D 메쉬 모델의 z축값 및 제2 3D 메쉬 모델의 z축값의 차이를 기초로 추출한 제6 특징 벡터, 라플라시안 좌표계(laplacian coordinate system)에서 제1 3D 메쉬 모델의 x축값 및 제2 3D 메쉬 모델의 x축값의 차이를 기초로 추출한 제7 특징 벡터, 라플라시안 좌표계에서 제1 3D 메쉬 모델의 y축값 및 제2 3D 메쉬 모델의 y축값의 차이를 기초로 추출한 제8 특징 벡터, 라플라시안 좌표계에서 제1 3D 메쉬 모델의 y축값 및 제2 3D 메쉬 모델의 y축값의 차이를 기초로 추출한 제9 특징 벡터, 직교 좌표계에서 제1 3D 메쉬 모델의 정점의 좌표 및 제2 3D 메쉬 모델의 정점의 좌표의 차이를 기초로 추출한 제10 특징 벡터, 라플라시안 좌표계에서 제1 3D 메쉬 모델의 정점의 좌표 및 제2 3D 메쉬 모델의 정점의 좌표의 차이를 기초로 추출한 제11 특징 벡터, 제1 3D 메쉬 모델에서 모서리를 공유하는 두 면의 이면각(dihedral angle) 및 제2 3D 메쉬 모델에서 모서리를 공유하는 두 면의 이면각의 차이를 기초로 추출되는 제12 특징 벡터, 제1 3D 메쉬 모델의 면(face)과 제2 3D 메쉬 모델의 면의 각도 차이를 기초로 추출되는 제13 특징 벡터, 제1 3D 메쉬 모델의 vertex normal 및 제2 3D 메쉬 모델의 vertex normal의 차이를 기초로 추출되는 제14 특징 벡터, 제1 3D 메쉬 모델의 gaussian curvature 및 제2 3D 메쉬 모델의 gaussian curvature의 차이를 기초로 추출되는 제15 특징 벡터 및 제1 3D 메쉬 모델의 curvature ratio 및 제2 3D 메쉬 모델의 curvature ratio의 차이를 기초로 추출되는 제16 특징 벡터를 생성할 수 있다. 여기서, 제4 특징 벡터 내지 제16 특징 벡터를 추출하는 자세한 과정은 "Li, Z., Bors, A.G.: 3D mesh steganalysis using local shape features. In: IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), pp. 2144-2148. IEEE (2016)"을 참조할 수 있다. In addition, the embodiment of the present invention is characterized in that a fourth feature vector extracted on the basis of the difference between the x-axis value of the first 3D mesh model and the x-axis value of the second 3D mesh model in the orthogonal coordinate system, And a fifth feature vector extracted based on the difference between the y-axis values of the second 3D mesh model, the z-axis value of the first 3D mesh model and the z-axis value of the second 3D mesh model in the orthogonal coordinate system, A seventh feature vector extracted based on the difference between the x-axis value of the first 3D mesh model and the x-axis value of the second 3D mesh model in the laplacian coordinate system, the y-axis value of the first 3D mesh model in the laplacian coordinate system, A ninth feature vector extracted based on the difference between the y-axis value of the first 3D mesh model and the y-axis value of the second 3D mesh model in the Laplacian coordinate system, the eighth feature vector extracted based on the difference of the y- In the coordinate system, A tenth feature vector extracted based on the difference between the coordinates of the vertices of the 3D mesh model and the coordinates of the vertices of the second 3D mesh model, the coordinates of the vertices of the first 3D mesh model and the coordinates of the vertices of the second 3D mesh model in the Laplacian coordinate system , A dihedral angle of two surfaces sharing an edge in the first 3D mesh model, and a dihedral angle of two surfaces sharing an edge in the second 3D mesh model A thirteenth feature vector extracted based on the angle difference between the face of the first 3D mesh model and the face of the second 3D mesh model, the vertex normal of the first 3D mesh model, and the second feature vector extracted by the second A 15th feature vector extracted based on the 14th feature vector extracted based on the difference of the vertex normal of the 3D mesh model, the gaussian curvature of the first 3D mesh model and the gaussian curvature of the second 3D mesh model, The curvature rati of the mesh model o and the second 3D mesh model based on the difference of the curvature ratios of the first 3D mesh model and the second 3D mesh model. Here, the detailed process of extracting the fourth to 16th feature vectors is described in " Li, Z., Bors, AG: 3D mesh steganalysis using local shape features. In: IEEE International Conference on Acoustics, Speech and Signal Processing , pp. 2144-2148, " IEEE (2016). &quot;

한편, S220 단계는 제1 3D 메쉬 모델 및 제2 3D 메쉬 모델의 차이를 기초로 추출한 각각의 특징 벡터에 대하여 평균(mean) 벡터, 분산(variance) 벡터, 왜도(skewness) 벡터 및 첨도(kurtosis) 벡터를 생성하는 단계를 포함할 수 있다. Meanwhile, in step S220, a mean vector, a variance vector, a skewness vector, and a kurtosis (kurtosis) are calculated for each feature vector extracted on the basis of the difference between the first 3D mesh model and the second 3D mesh model ) Vector. &Lt; / RTI &gt;

이에 따라, 본 발명의 실시예는 각 벡터로부터 추가적으로 추출된 평균 벡터, 분산 벡터, 왜도 벡터 및 첨도 벡터를 사용하여 4배의 학습 데이터를 도출하여 학습 데이터를 대폭 증가시킬 수 있다. Accordingly, the embodiment of the present invention can significantly increase learning data by deriving 4 times learning data using the average vector, dispersion vector, distortion vector, and kurtosis vector additionally extracted from each vector.

더하여 3D 메쉬 모델은 3D 메쉬 모델을 구성하는 정점(vertex), 모서리(edge), 면(face)의 개수 및 형태가 3D 메쉬 모델 마다 각기 상이하기 때문에 3D 메쉬 모델 자체로부터 얻어지는 특징 벡터는 3D 메쉬 모델마다 상이하여 숨겨진 정보가 있는지 판단하기 위한 범용적인 요소로 사용하기 어려운 점이 있으나, 본 발명의 실시예는 평균 벡터, 분산 벡터, 왜도 벡터 및 첨도 벡터를 학습 데이터로 사용하여 각 3D 메쉬 모델마다 추출되는 벡터의 차원을 동일하게 변경할 수 있으므로, 여러 가지 3D 메쉬 모델에 대해 범용적인 판단 요소를 추출할 수 있다. 한편, 벡터의 집합으로부터 평균 벡터, 분산 벡터, 왜도 벡터 및 첨도 벡터를 구하는 과정은 이미 알려진 수학적 방법으로서 통계학("https://en.wikipedia.org/wiki/Moment_(mathematics)")을 참조할 수 있다. In addition, since 3D mesh models have different vertex, edge, and face numbers and shapes that make up the 3D mesh model, the feature vectors obtained from the 3D mesh model itself are different from the 3D mesh model It is difficult to use it as a universal element for judging whether or not there is hidden information. However, the embodiment of the present invention uses an average vector, a dispersion vector, a distortion vector, and a kurtosis vector as learning data, Dimensional vector model can be changed equally, so that it is possible to extract general purpose decision elements for various 3D mesh models. On the other hand, the process of obtaining an average vector, a variance vector, a distortion vector, and a kurtosis vector from a set of vectors is a known mathematical method and is referred to as statistics ("https://en.wikipedia.org/wiki/Moment_(mathematics)") can do.

다음으로, 입력되는 벡터의 차원 수를 변형시켜 서로 간에 선형 독립적(linearly independent)인 관계를 갖도록 하는 커널 공간에 각각의 특징 벡터로부터 생성된 평균 벡터, 분산 벡터, 왜도 벡터 및 첨도 벡터를 입력하여 각 벡터 서로 간에 선형 독립적인 관계를 갖도록 변환된 선형 독립 벡터들을 생성하는 단계를 포함할 수 있다(S230). Next, an average vector, a variance vector, a degree vector, and a kurtosis vector, which are generated from the respective feature vectors, are input to a kernel space that has a linearly independent relationship with each other by modifying the number of dimensions of input vectors And generating transformed linear independent vectors so as to have a linear independent relationship between each vector (S230).

기계 학습 알고리즘은 선형 종속적(linear dependent)인 관계에 있는 학습 데이터로 학습을 하는 경우 모델의 정확도가 떨어진다는 특성이 있다. 이때 3D 메쉬 모델에서 추출한 특징 벡터들은 서로 선형 종속적인 관계에 있기 때문에, S230 단계에서는 벡터의 차원 수를 변형시켜 서로 간에 선형 독립적(linearly independent)인 관계를 갖도록 하는 커널 공간에 S220 단계에서 추출한 특징 벡터들을 입력하여 각각의 특징 벡터들이 변환된 선형 독립 벡터를 생성할 수 있다. 이때 커널 공간은 기존에 알려진 수학적 방법인 homogeneous kernel map 알고리즘(Vedaldi, A., Zisserman, A.: Ecient additive kernels via explicit feature maps.IEEE Trans. Pattern Anal. Mach. Intell. (TPAMI) 34(3), 480-492 (2012))을 기초로 생성될 수 있으며, 커널 공간은 입력되는 벡터가 갖는 차원 수에 비해 보다 높은 차원을 갖도록 변형함으로써 출력되는 벡터 서로 간에 선형 독립적인 관계를 갖도록 할 수 있다. Machine learning algorithms are characterized by poor model accuracy when learning with learning data in a linear dependent relationship. Since the feature vectors extracted from the 3D mesh model are linearly dependent on each other, in step S230, the feature vectors extracted in step S220 are extracted from the kernel space, which has a linearly independent relationship with each other, Can be input to generate a linearly independent vector in which each feature vector is transformed. In this case, the kernel space is a homogeneous kernel map algorithm (Vedaldi, A., Zisserman, A .: Ecient additive kernels via explicit feature map. IEEE Transactions Pattern Anal. Mach. Intell. , 480-492 (2012)), and the kernel space can be modified to have a higher dimension than the number of dimensions of the input vector, thereby making the output vector linearly independent.

한편, S230은 본 발명의 효과를 보다 향상시키기 위해 선택적으로 수행 가능한 단계로서, 프로세서는 S230 단계를 제외한 S210, S220 및 다음에 설명할 S240 단계만을 수행할 수도 있다.Meanwhile, the step S230 may be selectively performed to further enhance the effect of the present invention, and the processor may perform steps S210 and S220 except step S230 and step S240 to be described later.

이후, S220 또는 S230 단계에서 추출한 특징 벡터에 관한 정보를 기초로 기계 학습을 수행하여 타겟 3D 메쉬 모델 내에 숨겨진 정보가 존재하는 지 판별하는 모델을 생성한다(S240). Thereafter, a machine learning is performed based on the information on the feature vector extracted in step S220 or S230 to generate a model for determining whether hidden information exists in the target 3D mesh model (S240).

이때 모델을 학습시키기 위해 학습 데이터로서 사용되는 특징 벡터에 관한 정보는, 예를 들어 제1 특징 벡터 내지 제16 특징 벡터, 또는 제1 특징 벡터 내지 제16 특징 벡터의 각각으로부터 추출된 평균 벡터, 분산 벡터, 왜도 벡터 및 첨도 벡터(이하, 'LFS64'로 지칭한다), 또는 LFS64를 커널 공간에 입력하여 변형시킨 선형 독립 벡터(이하, 'LFS64+HKM'로 지칭한다)가 될 수 있다. The information on the feature vector used as the learning data for learning the model may include, for example, a first feature vector to a sixteenth feature vector, or an average vector extracted from each of the first feature vector to the sixteenth feature vector, (Hereinafter, referred to as 'LFS64 + HKM') obtained by transforming LFS64 into kernel space by transforming a vector, a vector and a kurtosis vector (hereinafter referred to as 'LFS64').

또한 커버 메쉬에 해당하는 제1 3D 메쉬 모델을 기초로 S210 및 S220 단계가 수행된 경우에는 숨겨진 정보가 삽입되지 않았다는 정보를 의미하는 레이블을 모델의 출력 변수로 설정하고, 스테고 메쉬에 해당하는 제1 3D 메쉬 모델을 기초로 S210 및 S220 단계가 수행된 경우에는 숨겨진 정보가 삽입되어 있다는 정보를 의미하는 레이블을 모델의 출력 변수로 설정하여 모델을 학습시킬 수 있다. When steps S210 and S220 are performed based on the first 3D mesh model corresponding to the cover mesh, a label indicating information that hidden information is not inserted is set as an output variable of the model, and a first When steps S210 and S220 are performed based on the 3D mesh model, the model can be learned by setting a label indicating information that hidden information is inserted as an output variable of the model.

도 3은 본 발명의 일 실시예에 따른 스테가노그래피 분석 모델의 성능을 측정하기 위한 AUC(area under the curve) 지표를 설명하기 위한 그래프이고, 도 4는 본 발명의 일 실시예에 따른 스테가노그래피 분석 모델의 검출 오류율(detection error)을 설명하기 위한 그래프이다. FIG. 3 is a graph for explaining an area under the curve (AUC) index for measuring the performance of a steganographic analysis model according to an embodiment of the present invention. FIG. FIG. 3 is a graph illustrating a detection error of a graphical analysis model. FIG.

도 3 및 도 4는 The Princeton Mesh Segmentation database에 저장된 3D 메쉬 모델 데이터들을 학습 데이터로 사용하여, 여러 기술을 적용하여 생성한 모델의 성능을 테스트한 실험의 결과이다. 이때 데이터 베이스에 저장되어 있는 커버 메쉬에 숨겨진 정보를 삽입하는 기술로는 제1 스테가노그래피 기법(Chao, M.W., Lin, C.H., Yu, C.W., Lee, T.Y.: A high capacity 3D steganography algorithm. IEEE Trans. Vis. Comput. Graph. (TVCG) 15(2), 274-284 (2009)) 및 제2 스테가노그래피 기법(Cho, J.W., Prost, R., Jung, H.Y.: An oblivious watermarking for 3-D polygonal meshes using distribution of vertex norms. IEEE Trans. Sig. Process. (TSP) 55(1), 142-155 (2007))을 사용하였다. FIG. 3 and FIG. 4 show the results of an experiment in which the performance of a model generated by applying various techniques using 3D mesh model data stored in The Princeton Mesh Segmentation database as learning data. A technique for inserting hidden information into a cover mesh stored in a database includes a first staggonography technique (Chao, MW, Lin, CH, Yu, CW, Lee, TY: A high capacity 3D steganography algorithm. (TVCG) 15 (2), 274-284 (2009)) and second staghornography technique (Cho, JW, Prost, R., Jung, HY: An oblivious watermarking for 3-D (TSP) 55 (1), 142-155 (2007)).

이때 도 3 및 도 4에 도시된 LFS52는 (Li, Z., Bors, A.G.: 3D mesh steganalysis using local shape features. In: IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), pp. 2144-2148. IEEE (2016))에 따른 기술을 기초로 생성한 모델을 이용한 결과이고, LFS64는 본 발명의 실시예 중 제1 특징 벡터 내지 제16 특징 벡터의 각각으로부터 추출된 평균 벡터, 분산 벡터, 왜도 벡터 및 첨도 벡터를 기초로 생성한 모델을 이용한 결과이고, LFS64+HKM은 제1 특징 벡터 내지 제16 특징 벡터의 각각으로부터 추출된 평균 벡터, 분산 벡터, 왜도 벡터 및 첨도 벡터를 커널 공간을 통해 변형시킨 선형 독립 벡터들을 기초로 생성한 모델을 이용한 결과를 의미한다. The LFS 52 shown in FIG. 3 and FIG. 4 can be implemented by using (Li, Z., Bors, AG: 3D mesh steganalysis using local shape features. In: IEEE International Conference on Acoustics, ICASSP, pp. 2144-2148 . The LFS 64 is a result of using a model generated based on the technology according to the IEEE (1986), IEEE (2016) LFS64 + HKM is a result of using the model generated based on the vector and the kurtosis vector, and LFS64 + HKM is a result of using the average vector, the dispersion vector, the degree vector and the kurtosis vector extracted from each of the first to 16th feature vectors And the result using the model generated based on the modified linear independent vectors.

이때 도 3을 참조하면, 제1 스테가노그래피 기법(a) 및 제2 스테가노그래피 기법(b) 모두 본 발명의 실시예들이 기존 기술에 비해 곡선의 하부 영역이 훨씬 넓으므로 정확도가 대폭 향상되었음을 확인할 수 있으며, 도 4를 참조하면, 제1 스테가노그래피 기법(a) 및 제2 스테가노그래피 기법(b) 모두 본 발명의 실시예들이 기존 기술에 비해 검출 오류율이 감소된 것을 확인할 수 있다.Referring now to FIG. 3, both the first staggonography technique (a) and the second steganography technique (b) show that the embodiments of the present invention have significantly improved accuracy since the lower area of the curve is much wider Referring to FIG. 4, it can be seen that embodiments of the present invention, both in the first staggonography technique (a) and in the second staghography technique (b), have a reduced detection error rate as compared to the prior art.

상술한 실시예에 따르면, 3D 메쉬 모델의 edge normal, mean curvature 및 total curvature로부터 도출한 특징 벡터의 차원 수를 일치시킴으로써, 3D 메쉬 모델마다 정점, 모서리, 면 등의 구성요소가 각기 상이하여도 범용적으로 사용할 수 있는 판단 요소를 생성할 수 있다. According to the embodiment described above, by matching the number of dimensions of feature vectors derived from the edge normal, mean curvature and total curvature of the 3D mesh model, even if the components such as vertices, edges, and faces are different for each 3D mesh model, You can create a decision element that you can use as an argument.

또한 homogeneous kernel map 알고리즘을 통해 3D 메쉬 모델로부터 추출된 특징 벡터들이 선형 독립적(linear independent)인 관계를 갖도록 변형하여 기계 학습되는 모델의 정확성을 향상시킬 수 있다. In addition, the homogeneous kernel map algorithm can improve the accuracy of the machine-learned model by modifying the feature vectors extracted from the 3D mesh model to have a linear independent relationship.

상술한 본 발명의 실시예들은 다양한 수단을 통해 구현될 수 있다. 예를 들어, 본 발명의 실시예들은 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다.The above-described embodiments of the present invention can be implemented by various means. For example, embodiments of the present invention may be implemented by hardware, firmware, software, or a combination thereof.

하드웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 프로세서, 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.In the case of hardware implementation, the method according to embodiments of the present invention may be implemented in one or more Application Specific Integrated Circuits (ASICs), Digital Signal Processors (DSPs), Digital Signal Processing Devices (DSPDs), Programmable Logic Devices (PLDs) , FPGAs (Field Programmable Gate Arrays), processors, controllers, microcontrollers, microprocessors, and the like.

펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차 또는 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드 등이 기록된 컴퓨터 프로그램은 컴퓨터 판독 가능 기록 매체 또는 메모리 유닛에 저장되어 프로세서에 의해 구동될 수 있다. 메모리 유닛은 프로세서 내부 또는 외부에 위치하여, 이미 공지된 다양한 수단에 의해 프로세서와 데이터를 주고 받을 수 있다.In the case of an implementation by firmware or software, the method according to embodiments of the present invention may be implemented in the form of a module, a procedure or a function for performing the functions or operations described above. A computer program recorded with a software code or the like may be stored in a computer-readable recording medium or a memory unit and may be driven by a processor. The memory unit is located inside or outside the processor, and can exchange data with the processor by various known means.

또한 본 발명에 첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 인코딩 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 인코딩 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방법으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 블록도의 각 블록 또는 흐름도 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 블록도의 각 블록 및 흐름도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.Combinations of the individual blocks of the block diagrams and flowchart illustrations attached to the present invention may also be performed by computer program instructions. These computer program instructions may be embedded in an encoding processor of a general purpose computer, special purpose computer, or other programmable data processing apparatus, so that the instructions, performed through the encoding processor of a computer or other programmable data processing apparatus, Thereby creating means for performing the functions described in each step of the flowchart. These computer program instructions may also be stored in a computer usable or computer readable memory capable of directing a computer or other programmable data processing apparatus to implement the functionality in a particular manner so that the computer usable or computer readable memory It is also possible for the instructions stored in the block diagram to produce a manufacturing item containing instruction means for performing the functions described in each block or flowchart of the block diagram. Computer program instructions may also be stored on a computer or other programmable data processing equipment so that a series of operating steps may be performed on a computer or other programmable data processing equipment to create a computer- It is also possible that the instructions that perform the processing equipment provide the steps for executing the functions described in each block of the block diagram and at each step of the flowchart.

더불어 각 블록 또는 각 단계는 특정된 논리적 기능을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또한 몇 가지 대체 실시예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들 또는 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.In addition, each block or each step may represent a portion of a module, segment, or code that includes one or more executable instructions for executing the specified logical function. It should also be noted that in some alternative embodiments, the functions mentioned in the blocks or steps may occur out of order. For example, two blocks or steps shown in succession may in fact be performed substantially concurrently, or the blocks or steps may sometimes be performed in reverse order according to the corresponding function.

이와 같이, 본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Thus, those skilled in the art will appreciate that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof. It is therefore to be understood that the embodiments described above are to be considered in all respects only as illustrative and not restrictive. It is intended that the present invention covers the modifications and variations of this invention provided they come within the scope of the appended claims and their equivalents. .

Claims (13)

하나 이상의 프로세서에 의해 수행되는 스테가노그래피(steganography) 분석 모델 생성 방법에 있어서,
제1 3D 메쉬 모델을 평활화(smoothing technique)한 제2 3D 메쉬 모델을 생성하는 단계;
상기 제1 3D 메쉬 모델의 edge normal 및 상기 제2 3D 메쉬 모델의 edge normal의 차이를 기초로 추출한 제1 특징 벡터, 상기 제1 3D 메쉬 모델의 mean curvature 및 상기 제2 3D 메쉬 모델의 mean curvature의 차이를 기초로 추출한 제2 특징 벡터 및 상기 제1 3D 메쉬 모델의 total curvature 및 상기 제2 3D 메쉬 모델의 total curvature의 차이를 기초로 추출한 제3 특징 벡터를 추출하는 단계; 및
상기 제1, 제2 및 제3 특징 벡터에 관한 정보를 기초로 기계 학습을 수행하여 타겟 3D 메쉬 모델 내에 숨겨진 정보가 존재하는 지 판별하는 모델을 생성하는 단계를 포함하는
스테가노그래피 분석 모델 생성 방법.
A method of generating a steganography analysis model performed by one or more processors,
Generating a second 3D mesh model in which a first 3D mesh model is smoothed;
A first feature vector extracted based on a difference between an edge normal of the first 3D mesh model and an edge normal of the second 3D mesh model, a mean curvature of the first 3D mesh model, and a mean curvature of a mean curvature of the second 3D mesh model Extracting a third feature vector extracted based on a difference between a second feature vector extracted based on the difference, a total curvature of the first 3D mesh model, and a total curvature of the second 3D mesh model; And
And performing a machine learning based on the information on the first, second and third feature vectors to generate a model that determines whether hidden information exists in the target 3D mesh model
A method for generating a steganographic analysis model.
제1항에 있어서,
상기 제1 3D 메쉬 모델은,
원본에 해당하는 커버 메쉬(cover mesh) 및 상기 원본에 숨겨진 정보가 삽입된 스테고 메쉬(stego mesh)를 포함하는
스테가노그래피 분석 모델 생성 방법.
The method according to claim 1,
Wherein the first 3D mesh model comprises:
A cover mesh corresponding to the original and a stego mesh into which information hidden in the original is inserted
A method for generating a steganographic analysis model.
제1항에 있어서,
상기 추출하는 단계는,
각각의 특징 벡터에 대하여 평균(mean) 벡터, 분산(variance) 벡터, 왜도(skewness) 벡터 및 첨도(kurtosis) 벡터를 생성하는 단계를 포함하는
스테가노그래피 분석 모델 생성 방법.
The method according to claim 1,
Wherein the extracting comprises:
Generating a mean vector, a variance vector, a skewness vector and a kurtosis vector for each feature vector,
A method for generating a steganographic analysis model.
제3항에 있어서,
입력되는 벡터의 차원 수를 변형시켜 서로 간에 선형 독립적(linearly independent)인 관계를 갖도록 하는 커널 공간에 상기 각각의 특징 벡터로부터 생성된 상기 평균 벡터, 분산 벡터, 왜도 벡터 및 첨도 벡터를 입력하여 상기 각각이 변환된 선형 독립 벡터를 생성하는 단계를 더 포함하고,
상기 제1, 제2 및 제3 특징 벡터에 관한 정보는 상기 선형 독립 벡터를 포함하는
스테가노그래피 분석 모델 생성 방법.
The method of claim 3,
A mean vector, a variance vector, a distortion vector, and a kurtosis vector generated from the respective feature vectors are input to a kernel space that has a linearly independent relationship with each other by modifying the number of dimensions of input vectors, Each generating a transformed linear independent vector,
Wherein the information about the first, second and third feature vectors comprises the linear independent vector
A method for generating a steganographic analysis model.
제4항에 있어서,
상기 커널 공간은,
homogeneous kernel map 알고리즘을 기초로 생성되는
스테가노그래피 분석 모델 생성 방법.
5. The method of claim 4,
The kernel space
Generated based on the homogeneous kernel map algorithm
A method for generating a steganographic analysis model.
제1항에 있어서,
상기 edge normal은,
3D 메쉬 모델에서 공통된 모서리(edge)를 공유하는 각 메쉬 조각에 대하여 상기 각 메쉬 조각의 면적 및 상기 각 메쉬 조각의 무게 중심에서의 법선 벡터를 곱하여 도출된 벡터들의 합인
스테가노그래피 분석 모델 생성 방법.
The method according to claim 1,
The edge normal,
The sum of the vectors obtained by multiplying the area of each mesh piece by the normal vector at the center of gravity of each mesh piece with respect to each mesh piece sharing a common edge in the 3D mesh model
A method for generating a steganographic analysis model.
제6항에 있어서,
상기 제1 특징 벡터는,
상기 제1 3D 메쉬 모델의 edge normal과 상기 제2 3D 메쉬 모델의 edge normal 의 내적에 대한 상기 제1 3D 메쉬 모델의 edge normal의 l2-norm 값과 상기 제2 3D 메쉬 모델의 edge normal의 l2-norm 값을 곱한 값의 비율에 역코사인을 취한 값인
스테가노그래피 분석 모델 생성 방법.
The method according to claim 6,
Wherein the first feature vector comprises:
Norm value of an edge normal of the first 3D mesh model and an edge normal of an edge normal of the second 3D mesh model and an inner normal of an edge normal of the second 3D mesh model, The value obtained by multiplying the norm value by an inverse cosine
A method for generating a steganographic analysis model.
제1항에 있어서,
상기 mean curvature는,
3D 메쉬 모델의 정점(vertex)에 PCA(principal component analysis) 기법을 적용하여 도출된 값의 평균인
스테가노그래피 분석 모델 생성 방법.
The method according to claim 1,
The mean curvature,
The principal component analysis (PCA) is applied to the vertex of the 3D mesh model.
A method for generating a steganographic analysis model.
제1항에 있어서,
상기 total curvature는,
3D 메쉬 모델의 정점(vertex)에 PCA(principal component analysis) 기법을 적용하여 도출된 값의 총합인
스테가노그래피 분석 모델 생성 방법.
The method according to claim 1,
The total curvature,
The sum of the values obtained by applying the principal component analysis (PCA) technique to the vertices of the 3D mesh model
A method for generating a steganographic analysis model.
제1항에 있어서,
상기 추출하는 단계는,
직교 좌표계에서 상기 제1 3D 메쉬 모델의 x축값 및 상기 제2 3D 메쉬 모델의 x축값의 차이를 기초로 추출한 제4 특징 벡터,
상기 직교 좌표계에서 상기 제1 3D 메쉬 모델의 y축값 및 상기 제2 3D 메쉬 모델의 y축값의 차이를 기초로 추출한 제5 특징 벡터,
상기 직교 좌표계에서 상기 제1 3D 메쉬 모델의 z축값 및 상기 제2 3D 메쉬 모델의 z축값의 차이를 기초로 추출한 제6 특징 벡터,
라플라시안 좌표계(laplacian coordinate system)에서 상기 제1 3D 메쉬 모델의 x축값 및 상기 제2 3D 메쉬 모델의 x축값의 차이를 기초로 추출한 제7 특징 벡터,
상기 라플라시안 좌표계에서 상기 제1 3D 메쉬 모델의 y축값 및 상기 제2 3D 메쉬 모델의 y축값의 차이를 기초로 추출한 제8 특징 벡터,
상기 라플라시안 좌표계에서 상기 제1 3D 메쉬 모델의 y축값 및 상기 제2 3D 메쉬 모델의 y축값의 차이를 기초로 추출한 제9 특징 벡터,
상기 직교 좌표계에서 상기 제1 3D 메쉬 모델의 정점의 좌표 및 상기 제2 3D 메쉬 모델의 정점의 좌표의 차이를 기초로 추출한 제10 특징 벡터,
상기 라플라시안 좌표계에서 상기 제1 3D 메쉬 모델의 정점의 좌표 및 상기 제2 3D 메쉬 모델의 정점의 좌표의 차이를 기초로 추출한 제11 특징 벡터,
상기 제1 3D 메쉬 모델에서 모서리를 공유하는 두 면의 이면각(dihedral angle) 및 상기 제2 3D 메쉬 모델에서 모서리를 공유하는 두 면의 이면각의 차이를 기초로 추출되는 제12 특징 벡터,
상기 제1 3D 메쉬 모델의 면(face)과 상기 제2 3D 메쉬 모델의 면의 각도 차이를 기초로 추출되는 제13 특징 벡터,
상기 제1 3D 메쉬 모델의 vertex normal 및 상기 제2 3D 메쉬 모델의 vertex normal의 차이를 기초로 추출되는 제14 특징 벡터,
상기 제1 3D 메쉬 모델의 gaussian curvature 및 상기 제2 3D 메쉬 모델의 gaussian curvature의 차이를 기초로 추출되는 제15 특징 벡터, 및
상기 제1 3D 메쉬 모델의 curvature ratio 및 상기 제2 3D 메쉬 모델의 curvature ratio의 차이를 기초로 추출되는 제16 특징 벡터를 추출하는 단계를 포함하고,
상기 모델을 생성하는 단계는,
상기 제4 특징 벡터 내지 제16 특징 벡터에 관한 정보를 추가하여 기계 학습을 수행하는
스테가노그래피 분석 모델 생성 방법.
The method according to claim 1,
Wherein the extracting comprises:
A fourth feature vector extracted on the basis of the difference between the x-axis value of the first 3D mesh model and the x-axis value of the second 3D mesh model in the orthogonal coordinate system,
A fifth feature vector extracted based on a difference between the y-axis value of the first 3D mesh model and the y-axis value of the second 3D mesh model in the orthogonal coordinate system,
A sixth feature vector extracted based on the difference between the z-axis value of the first 3D mesh model and the z-axis value of the second 3D mesh model in the orthogonal coordinate system,
A seventh feature vector extracted based on a difference between an x-axis value of the first 3D mesh model and an x-axis value of the second 3D mesh model in a laplacian coordinate system,
An eighth feature vector extracted based on a difference between a y-axis value of the first 3D mesh model and a y-axis value of the second 3D mesh model in the Laplacian coordinate system,
A ninth feature vector extracted based on a difference between a y-axis value of the first 3D mesh model and a y-axis value of the second 3D mesh model in the Laplacian coordinate system,
A tenth feature vector extracted based on the coordinates of the vertexes of the first 3D mesh model and the vertices of the second 3D mesh model in the orthogonal coordinate system,
An eleventh feature vector extracted based on the coordinates of the vertices of the first 3D mesh model and the vertices of the second 3D mesh model in the Laplacian coordinate system,
A twelfth feature vector extracted based on a dihedral angle of two surfaces sharing an edge in the first 3D mesh model and a difference of a back angle of two surfaces sharing an edge in the second 3D mesh model,
A thirteenth feature vector extracted based on an angle difference between a face of the first 3D mesh model and a face of the second 3D mesh model,
A fourteenth feature vector extracted based on a difference between a vertex normal of the first 3D mesh model and a vertex normal of the second 3D mesh model,
A fifteenth feature vector extracted based on a difference between a gaussian curvature of the first 3D mesh model and a gaussian curvature of the second 3D mesh model,
Extracting a sixteenth feature vector extracted based on a difference between a curvature ratio of the first 3D mesh model and a curvature ratio of the second 3D mesh model,
The generating of the model may comprise:
Information on the fourth to 16th feature vectors is added to perform machine learning
A method for generating a steganographic analysis model.
제1항 내지 제10항 중 어느 한 항의 방법을 수행하는 프로세서를 포함하는 장치.
11. An apparatus comprising a processor for performing the method of any one of claims 1 to 10.
제1항 내지 제10항 중 어느 한 항의 방법을 프로세서가 수행하게 하는 명령어를 포함하는 컴퓨터 프로그램이 기록된 컴퓨터 판독 가능 기록매체.
11. A computer program comprising instructions for causing a processor to perform the method of any one of claims 1 to 10.
제1항 내지 제10항 중 어느 한 항의 방법을 프로세서가 수행하도록 하는 컴퓨터 판독 가능 기록매체에 저장된 컴퓨터 프로그램. A computer program stored on a computer readable medium for causing a processor to perform the method of any one of claims 1 to 10.
KR1020170159247A 2017-11-27 2017-11-27 Method and apparatus for generating steganography analysis model KR102054347B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170159247A KR102054347B1 (en) 2017-11-27 2017-11-27 Method and apparatus for generating steganography analysis model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170159247A KR102054347B1 (en) 2017-11-27 2017-11-27 Method and apparatus for generating steganography analysis model

Publications (2)

Publication Number Publication Date
KR20190061171A true KR20190061171A (en) 2019-06-05
KR102054347B1 KR102054347B1 (en) 2019-12-10

Family

ID=66845455

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170159247A KR102054347B1 (en) 2017-11-27 2017-11-27 Method and apparatus for generating steganography analysis model

Country Status (1)

Country Link
KR (1) KR102054347B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113706360A (en) * 2021-08-18 2021-11-26 南京航空航天大学 3D grid steganography method based on feature preserving distortion model

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5913041B2 (en) * 2012-01-19 2016-04-27 公立大学法人会津大学 Secret information concealment device, secret information restoration device, secret information concealment program, and secret information restoration program
KR20170095508A (en) 2016-02-15 2017-08-23 이화여자대학교 산학협력단 Transferring method for encrypted information based on steganography

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5913041B2 (en) * 2012-01-19 2016-04-27 公立大学法人会津大学 Secret information concealment device, secret information restoration device, secret information concealment program, and secret information restoration program
KR20170095508A (en) 2016-02-15 2017-08-23 이화여자대학교 산학협력단 Transferring method for encrypted information based on steganography

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113706360A (en) * 2021-08-18 2021-11-26 南京航空航天大学 3D grid steganography method based on feature preserving distortion model
CN113706360B (en) * 2021-08-18 2024-03-19 南京航空航天大学 3D grid steganography method based on feature preserving distortion model

Also Published As

Publication number Publication date
KR102054347B1 (en) 2019-12-10

Similar Documents

Publication Publication Date Title
US9978177B2 (en) Reconstructing a 3D modeled object
Sawhney et al. Monte Carlo geometry processing: A grid-free approach to PDE-based methods on volumetric domains
CN108960001B (en) Method and device for training image processing device for face recognition
EP3401815B1 (en) Determining an architectural layout
CN108875511B (en) Image generation method, device, system and computer storage medium
Panozzo et al. Weighted averages on surfaces
US10303156B2 (en) Detecting cut-outs
US9928314B2 (en) Fitting sample points with an isovalue surface
Chan et al. Volumetric parametrization from a level set boundary representation with PHT-splines
US8564590B2 (en) Imparting three-dimensional characteristics in a two-dimensional space
JP7294788B2 (en) Classification of 2D images according to the type of 3D placement
US11790605B2 (en) 3D reconstruction with smooth maps
EP2930692A1 (en) Fitting sample points of 3D curves sketched by a user with an isovalue surface
US11403807B2 (en) Learning hybrid (surface-based and volume-based) shape representation
EP3711016B1 (en) Systems and methods for segmenting images
Griffin et al. GPU curvature estimation on deformable meshes
KR102054347B1 (en) Method and apparatus for generating steganography analysis model
JP5473096B2 (en) Modeling concave surfaces in image-based visual hulls
US20220392251A1 (en) Method and apparatus for generating object model, electronic device and storage medium
US20230177722A1 (en) Apparatus and method with object posture estimating
Zeng et al. Colon surface registration using Ricci flow
Ohrhallinger et al. Feature-Sized Sampling for Vector Line Art
Braz et al. Computer Vision, Imaging and Computer Graphics Theory and Applications: 10th International Joint Conference, VISIGRAPP 2015, Berlin, Germany, March 11-14, 2015, Revised Selected Papers
CN117788658A (en) Method, apparatus and computer program product for rendering images
Zeng et al. Towards a 3D sketch-based modelling API

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant