KR102054347B1 - Method and apparatus for generating steganography analysis model - Google Patents

Method and apparatus for generating steganography analysis model Download PDF

Info

Publication number
KR102054347B1
KR102054347B1 KR1020170159247A KR20170159247A KR102054347B1 KR 102054347 B1 KR102054347 B1 KR 102054347B1 KR 1020170159247 A KR1020170159247 A KR 1020170159247A KR 20170159247 A KR20170159247 A KR 20170159247A KR 102054347 B1 KR102054347 B1 KR 102054347B1
Authority
KR
South Korea
Prior art keywords
mesh model
model
mesh
difference
feature vector
Prior art date
Application number
KR1020170159247A
Other languages
Korean (ko)
Other versions
KR20190061171A (en
Inventor
이흥규
김동규
장한얼
최학열
손정호
최성희
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020170159247A priority Critical patent/KR102054347B1/en
Publication of KR20190061171A publication Critical patent/KR20190061171A/en
Application granted granted Critical
Publication of KR102054347B1 publication Critical patent/KR102054347B1/en

Links

Images

Classifications

    • G06F17/20
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/008Vector quantisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

본 발명의 일 실시예에 따른 스테가노그래피 분석 모델 생성 방법은 제1 3D 메쉬 모델을 평활화한 제2 3D 메쉬 모델을 생성하는 단계, 제1 3D 메쉬 모델의 edge normal 및 제2 3D 메쉬 모델의 edge normal의 차이를 기초로 추출한 제1 특징 벡터, 제1 3D 메쉬 모델의 mean curvature 및 제2 3D 메쉬 모델의 mean curvature의 차이를 기초로 추출한 제2 특징 벡터 및 제1 3D 메쉬 모델의 total curvature 및 제2 3D 메쉬 모델의 total curvature의 차이를 기초로 추출한 제3 특징 벡터를 추출하는 단계 및 제1, 제2 및 제3 특징 벡터에 관한 정보를 기초로 기계 학습을 수행하여 타겟 3D 메쉬 모델 내에 숨겨진 정보가 존재하는 지 판별하는 모델을 생성하는 단계를 포함한다. The method for generating a steganography analysis model according to an embodiment of the present invention includes generating a second 3D mesh model obtained by smoothing a first 3D mesh model, an edge normal of the first 3D mesh model, and an edge of the second 3D mesh model. The total curvature and the first feature vector extracted based on the difference of the normal, the mean curvature of the first 3D mesh model, and the total curvature and the first feature vector extracted based on the difference of the mean curvature of the second 3D mesh model. 2 information extracted in the 3D mesh model based on the difference in the total curvatures, and machine learning based on the information about the 1st, 2nd and 3rd feature vectors. Generating a model for determining if a word exists.

Description

스테가노그래피 분석 모델 생성 방법 및 장치{METHOD AND APPARATUS FOR GENERATING STEGANOGRAPHY ANALYSIS MODEL}METHOD AND APPARATUS FOR GENERATING STEGANOGRAPHY ANALYSIS MODEL}

본 발명은 스테가노그래피(steganography) 분석 모델 생성 방법 및 장치에 관한 것으로서, 보다 자세하게는 3D 메쉬 모델 내에 숨겨진 정보가 존재하는 지 여부를 판별하는 스테가노그래피 분석 모델 생성 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for generating a steganography analysis model, and more particularly, to a method and apparatus for generating a steganography analysis model for determining whether there is hidden information in a 3D mesh model.

스테가노그래피란 암호화 기법의 하나로서 이미지, 비디오, 오디오와 같은 다양한 유형의 디지털 컨텐츠에 제3자로 하여금 특별한 정보가 포함되었다고 파악하기 어렵게끔 정보를 삽입하여 전송하는 기법이다. Steganography is an encryption technique that inserts and transmits information to various types of digital content such as images, video, and audio so that it is difficult for a third party to recognize that special information is included.

이러한 스테가노그래피 기법은 보안 기술이 필요한 영역에 활발히 사용되고 있으나, 악성 코드의 유포 또는 테러리스트 간의 메시지 전송 수단 등에 악용될 수 있기 때문에 어떠한 컨텐츠에 스테가노그래피 기법이 사용되어 숨겨진 정보가 존재하는지 분석하는 기술이 요구되고 있다. This steganography technique is actively used in areas requiring security technology, but it can be used for distributing malicious code or a means of transmitting a message between terrorists, so that steganography technique is used to analyze what content is hidden. This is required.

특히, 스테가노그래피 기법이 적용될 수 있는 컨텐츠 중 3D 메쉬 모델의 경우, 3D 메쉬 모델을 구성하는 정점(vertex), 모서리(edge), 면(face) 등의 구성요소가 3D 메쉬 모델 마다 각기 상이하기 때문에 숨겨진 정보가 존재하는지 분석하기 위한 범용적인 판단 요소를 특정하는 것에 대한 어려움이 있으며, 더하여 3D 메쉬 모델에서 추출한 요소들은 선형 종속적(linear dependent)인 관계에 있어 기계 학습에 적용시켰을 때 판단의 정확도를 높이는데 어려움이 존재한다. In particular, in the case of the 3D mesh model among the contents to which the steganography technique can be applied, components such as vertices, edges, and faces that make up the 3D mesh model are different for each 3D mesh model. As a result, it is difficult to specify universal judgment factors for analyzing the existence of hidden information. In addition, the factors extracted from the 3D mesh model are linear dependent, so that the accuracy of judgment is applied when applied to machine learning. There is a difficulty in raising.

한국 공개특허공보 제10-2017-0095508호: 이미지를 이용하여 암호화된 정보를 전송하는 방법Korean Laid-Open Patent Publication No. 10-2017-0095508: Method of transmitting encrypted information using an image

본 발명의 실시예에서 해결하고자 하는 과제는 3D 메쉬 모델에 숨겨진 정보가 존재하는지 분석하는 기술을 제공하는 것이다. The problem to be solved in the embodiment of the present invention is to provide a technique for analyzing whether there is hidden information in the 3D mesh model.

다만, 본 발명의 실시예가 이루고자 하는 기술적 과제는 이상에서 언급한 과제로 제한되지 않으며, 이하에서 설명할 내용으로부터 통상의 기술자에게 자명한 범위 내에서 다양한 기술적 과제가 도출될 수 있다.However, the technical problem to be achieved by the embodiment of the present invention is not limited to the above-mentioned problem, various technical problems can be derived within the scope apparent to those skilled in the art from the following description.

본 발명의 일 실시예에 따른 스테가노그래피 분석 모델 생성 방법은 제1 3D 메쉬 모델을 평활화(smoothing technique)한 제2 3D 메쉬 모델을 생성하는 단계, 상기 제1 3D 메쉬 모델의 edge normal 및 상기 제2 3D 메쉬 모델의 edge normal의 차이를 기초로 추출한 제1 특징 벡터, 상기 제1 3D 메쉬 모델의 mean curvature 및 상기 제2 3D 메쉬 모델의 mean curvature의 차이를 기초로 추출한 제2 특징 벡터 및 상기 제1 3D 메쉬 모델의 total curvature 및 상기 제2 3D 메쉬 모델의 total curvature의 차이를 기초로 추출한 제3 특징 벡터를 추출하는 단계 및 상기 제1, 제2 및 제3 특징 벡터에 관한 정보를 기초로 기계 학습을 수행하여 타겟 3D 메쉬 모델 내에 숨겨진 정보가 존재하는 지 판별하는 모델을 생성하는 단계를 포함한다. The method for generating a steganography analysis model according to an embodiment of the present invention may include generating a second 3D mesh model obtained by smoothing a first 3D mesh model, an edge normal of the first 3D mesh model, and the first 3D mesh model. A first feature vector extracted based on a difference in edge normal of the 3D mesh model, a second feature vector extracted based on a difference in mean curvature of the first 3D mesh model, and a mean curvature of the second 3D mesh model, and the second feature vector 1) extracting a third feature vector extracted based on the difference between the total curvature of the 3D mesh model and the total curvature of the second 3D mesh model; and based on the information about the first, second, and third feature vectors. Performing training to generate a model that determines whether there is hidden information in the target 3D mesh model.

이때 상기 제1 3D 메쉬 모델은 원본에 해당하는 커버 메쉬(cover mesh) 및 상기 원본에 숨겨진 정보가 삽입된 스테고 메쉬(stego mesh)를 포함할 수 있다. In this case, the first 3D mesh model may include a cover mesh corresponding to the original and a stego mesh into which information hidden in the original is inserted.

또한 상기 추출하는 단계는 각각의 특징 벡터에 대하여 평균(mean) 벡터, 분산(variance) 벡터, 왜도(skewness) 벡터 및 첨도(kurtosis) 벡터를 생성하는 단계를 포함할 수 있다. In addition, the extracting may include generating a mean vector, a variance vector, a skewness vector, and a kurtosis vector for each feature vector.

더하여 입력되는 벡터의 차원 수를 변형시켜 서로 간에 선형 독립적(linearly independent)인 관계를 갖도록 하는 커널 공간에 상기 각각의 특징 벡터로부터 생성된 상기 평균 벡터, 분산 벡터, 왜도 벡터 및 첨도 벡터를 입력하여 상기 각각이 변환된 선형 독립 벡터를 생성하는 단계를 더 포함하고, 상기 제1, 제2 및 제3 특징 벡터에 관한 정보는 상기 선형 독립 벡터를 포함할 수 있다. In addition, the mean vector, the variance vector, the skewness vector, and the kurtosis vector generated from the respective feature vectors are inputted into kernel space to modify the number of dimensions of the input vector so as to have a linearly independent relationship with each other. The method may further include generating each of the transformed linear independent vectors, and the information about the first, second and third feature vectors may include the linear independent vectors.

아울러 상기 커널 공간은 homogeneous kernel map 알고리즘을 기초로 생성될 수 있다. In addition, the kernel space may be generated based on a homogeneous kernel map algorithm.

또한 상기 edge normal은 3D 메쉬 모델에서 공통된 모서리(edge)를 공유하는 각 메쉬 조각에 대하여 상기 각 메쉬 조각의 면적 및 상기 각 메쉬 조각의 무게 중심에서의 법선 벡터를 곱하여 도출된 벡터들의 합일 수 있다. In addition, the edge normal may be a sum of vectors derived by multiplying the area of each mesh piece by a normal vector at the center of gravity of each mesh piece for each mesh piece sharing a common edge in a 3D mesh model.

더하여 상기 제1 특징 벡터는 상기 제1 3D 메쉬 모델의 edge normal과 상기 제2 3D 메쉬 모델의 edge normal 의 내적에 대한 상기 제1 3D 메쉬 모델의 edge normal의 l2-norm 값과 상기 제2 3D 메쉬 모델의 edge normal의 l2-norm 값을 곱한 값의 비율에 역코사인을 취한 값일 수 있다. In addition, the first feature vector may include l2-norm value of the edge normal of the first 3D mesh model and the second 3D mesh of the inner product of the edge normal of the first 3D mesh model and the edge normal of the second 3D mesh model. The ratio of the product multiplied by the l2-norm value of the edge normal of the model may be a value obtained by taking an inverse cosine.

아울러 상기 mean curvature는 3D 메쉬 모델의 정점(vertex)에 PCA(principal component analysis) 기법을 적용하여 도출된 값의 평균일 수 있다. In addition, the mean curvature may be an average of values derived by applying a principal component analysis (PCA) technique to a vertex of the 3D mesh model.

더불어 상기 total curvature는 3D 메쉬 모델의 정점(vertex)에 PCA(principal component analysis) 기법을 적용하여 도출된 값의 총합일 수 있다. In addition, the total curvature may be a total of values derived by applying a principal component analysis (PCA) technique to a vertex of a 3D mesh model.

또한 상기 추출하는 단계는 직교 좌표계에서 상기 제1 3D 메쉬 모델의 x축값 및 상기 제2 3D 메쉬 모델의 x축값의 차이를 기초로 추출한 제4 특징 벡터, 상기 직교 좌표계에서 상기 제1 3D 메쉬 모델의 y축값 및 상기 제2 3D 메쉬 모델의 y축값의 차이를 기초로 추출한 제5 특징 벡터, 상기 직교 좌표계에서 상기 제1 3D 메쉬 모델의 z축값 및 상기 제2 3D 메쉬 모델의 z축값의 차이를 기초로 추출한 제6 특징 벡터, 라플라시안 좌표계(laplacian coordinate system)에서 상기 제1 3D 메쉬 모델의 x축값 및 상기 제2 3D 메쉬 모델의 x축값의 차이를 기초로 추출한 제7 특징 벡터, 상기 라플라시안 좌표계에서 상기 제1 3D 메쉬 모델의 y축값 및 상기 제2 3D 메쉬 모델의 y축값의 차이를 기초로 추출한 제8 특징 벡터, 상기 라플라시안 좌표계에서 상기 제1 3D 메쉬 모델의 y축값 및 상기 제2 3D 메쉬 모델의 y축값의 차이를 기초로 추출한 제9 특징 벡터, 상기 직교 좌표계에서 상기 제1 3D 메쉬 모델의 정점의 좌표 및 상기 제2 3D 메쉬 모델의 정점의 좌표의 차이를 기초로 추출한 제10 특징 벡터, 상기 라플라시안 좌표계에서 상기 제1 3D 메쉬 모델의 정점의 좌표 및 상기 제2 3D 메쉬 모델의 정점의 좌표의 차이를 기초로 추출한 제11 특징 벡터, 상기 제1 3D 메쉬 모델에서 모서리를 공유하는 두 면의 이면각(dihedral angle) 및 상기 제2 3D 메쉬 모델에서 모서리를 공유하는 두 면의 이면각의 차이를 기초로 추출되는 제12 특징 벡터, 상기 제1 3D 메쉬 모델의 면(face)과 상기 제2 3D 메쉬 모델의 면의 각도 차이를 기초로 추출되는 제13 특징 벡터, 상기 제1 3D 메쉬 모델의 vertex normal 및 상기 제2 3D 메쉬 모델의 vertex normal의 차이를 기초로 추출되는 제14 특징 벡터, 상기 제1 3D 메쉬 모델의 gaussian curvature 및 상기 제2 3D 메쉬 모델의 gaussian curvature의 차이를 기초로 추출되는 제15 특징 벡터 및 상기 제1 3D 메쉬 모델의 curvature ratio 및 상기 제2 3D 메쉬 모델의 curvature ratio의 차이를 기초로 추출되는 제16 특징 벡터를 추출하는 단계를 포함하고, 상기 모델을 생성하는 단계는 상기 제4 특징 벡터 내지 제16 특징 벡터에 관한 정보를 추가하여 기계 학습을 수행할 수 있다. The extracting may include a fourth feature vector extracted based on a difference between an x-axis value of the first 3D mesh model and an x-axis value of the second 3D mesh model in a rectangular coordinate system, and the fourth 3D mesh model of the first 3D mesh model in the rectangular coordinate system. a fifth feature vector extracted based on a difference between a y-axis value and a y-axis value of the second 3D mesh model, based on a difference between a z-axis value of the first 3D mesh model and a z-axis value of the second 3D mesh model in the rectangular coordinate system A sixth feature vector extracted with a seventh feature vector extracted based on a difference between an x-axis value of the first 3D mesh model and an x-axis value of the second 3D mesh model in a laplacian coordinate system, and in the Laplacian coordinate system An eighth feature vector extracted based on a difference between the y-axis value of the first 3D mesh model and the y-axis value of the second 3D mesh model, the y-axis value of the first 3D mesh model, and the second in the Laplacian coordinate system A ninth feature vector extracted based on a difference in y-axis values of a 3D mesh model, a tenth extracted based on a difference in coordinates of a vertex of the first 3D mesh model and a vertex of the second 3D mesh model in the rectangular coordinate system; A feature vector, an eleventh feature vector extracted based on a difference between the coordinates of the vertices of the first 3D mesh model and the coordinates of the vertices of the second 3D mesh model in the Laplacian coordinate system, and the corners are shared by the first 3D mesh model. A twelfth feature vector extracted based on a difference in backside angles of two faces and backside angles of two faces that share edges in the second 3D mesh model, and a face of the first 3D mesh model. A thirteenth feature vector extracted based on an angle difference of a plane of the second 3D mesh model, a fourteenth feature extracted based on a difference between a vertex normal of the first 3D mesh model and a vertex normal of the second 3D mesh model vector, A fifteenth feature vector extracted based on a difference between the gaussian curvature of the first 3D mesh model and the gaussian curvature of the second 3D mesh model, the curvature ratio of the first 3D mesh model, and the curvature ratio of the second 3D mesh model And extracting a sixteenth feature vector extracted based on the difference of, and generating the model may perform machine learning by adding information about the fourth to sixteenth feature vectors.

본 발명의 실시예에 따르면, 3D 메쉬 모델의 edge normal, mean curvature 및 total curvature로부터 도출한 특징 벡터의 차원 수를 일치시킴으로써, 3D 메쉬 모델마다 정점, 모서리, 면 등의 구성요소가 각기 상이하여도 범용적으로 사용할 수 있는 판단 요소를 생성할 수 있다. According to an embodiment of the present invention, by matching the number of dimensions of the feature vectors derived from the edge normal, mean curvature, and total curvature of the 3D mesh model, even if the components such as vertices, edges, faces, etc. are different for each 3D mesh model Determining elements that can be used universally can be created.

또한 homogeneous kernel map 알고리즘을 통해 3D 메쉬 모델로부터 추출된 특징 벡터들이 선형 독립적(linear independent)인 관계를 갖도록 변형하여 기계 학습되는 모델의 정확성을 향상시킬 수 있다. In addition, the homogeneous kernel map algorithm can improve the accuracy of the machine-learned model by transforming feature vectors extracted from the 3D mesh model to have a linear independent relationship.

도 1은 본 발명의 일 실시예에 따른 3D 메쉬 모델의 구조를 설명하기 위한 예시도이다.
도 2는 본 발명의 일 실시예에 따른 스테가노그래피 분석 모델 생성 방법의 프로세스를 도시하는 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 스테가노그래피 분석 모델의 성능을 측정하기 위한 AUC(area under the curve) 지표를 설명하기 위한 그래프이다.
도 4는 본 발명의 일 실시예에 따른 스테가노그래피 분석 모델의 검출 오류율(detection error)을 설명하기 위한 그래프이다.
1 is an exemplary view for explaining the structure of a 3D mesh model according to an embodiment of the present invention.
2 is a flowchart illustrating a process of a method for generating a steganographic analysis model according to an embodiment of the present invention.
3 is a graph for explaining an area under the curve (AUC) index for measuring the performance of a steganographic analysis model according to an embodiment of the present invention.
4 is a graph illustrating a detection error of a steganography analysis model according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다.  그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명의 범주는 청구항에 의해 정의될 뿐이다.Advantages and features of the present invention, and methods of achieving them will be apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but can be implemented in various forms. The present embodiments merely make the disclosure of the present invention complete, and have the ordinary knowledge in the art to which the present invention pertains. It is provided to fully inform the scope of the invention, and the scope of the invention is defined only by the claims.

본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명은 본 발명의 실시예들을 설명함에 있어 실제로 필요한 경우 외에는 생략될 것이다.  그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다.  그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In describing the embodiments of the present invention, detailed descriptions of well-known functions or configurations will be omitted unless they are actually necessary in describing the embodiments of the present invention. In addition, terms to be described below are terms defined in consideration of functions in the embodiments of the present invention, which may vary according to intentions or customs of users or operators. Therefore, the definition should be made based on the contents throughout the specification.

도면에 표시되고 아래에 설명되는 기능 블록들은 가능한 구현의 예들일 뿐이다. 다른 구현들에서는 상세한 설명의 사상 및 범위를 벗어나지 않는 범위에서 다른 기능 블록들이 사용될 수 있다. 또한 본 발명의 하나 이상의 기능 블록이 개별 블록들로 표시되지만, 본 발명의 기능 블록들 중 하나 이상은 동일 기능을 실행하는 다양한 하드웨어 및 소프트웨어 구성들의 조합일 수 있다.The functional blocks shown in the figures and described below are only examples of possible implementations. Other functional blocks may be used in other implementations without departing from the spirit and scope of the detailed description. Also, while one or more functional blocks of the present invention are represented by separate blocks, one or more of the functional blocks of the present invention may be a combination of various hardware and software configurations that perform the same function.

또한 어떤 구성 요소들을 포함한다는 표현은 개방형의 표현으로서 해당 구성 요소들이 존재하는 것을 단순히 지칭할 뿐이며, 추가적인 구성 요소들을 배제하는 것으로 이해되어서는 안 된다.In addition, the expression "comprising" certain components merely refers to the presence of the components as an open expression, and should not be understood as excluding additional components.

나아가 어떤 구성 요소가 다른 구성 요소에 연결되어 있다거나 접속되어 있다고 언급될 때에는, 그 다른 구성 요소에 직접적으로 연결 또는 접속되어 있을 수도 있지만, 중간에 다른 구성 요소가 존재할 수도 있다고 이해되어야 한다. Further, when a component is referred to as being connected or connected to another component, it should be understood that there may be a direct connection or connection to that other component, but there may be other components in between.

또한 '제1, 제2' 등과 같은 표현은 복수의 구성들을 구분하기 위한 용도로만 사용된 표현으로써, 구성들 사이의 순서나 기타 특징들을 한정하지 않는다. In addition, an expression such as 'first' and 'second' is used only for distinguishing a plurality of components, and does not limit the order or other features between the components.

이하에서는 도면들을 참조하여 본 발명의 실시예들에 대해 설명하도록 한다. Hereinafter, embodiments of the present invention will be described with reference to the drawings.

도 1은 본 발명의 일 실시예에 따른 3D 메쉬 모델의 구조를 설명하기 위한 예시도이다. 1 is an exemplary view for explaining the structure of a 3D mesh model according to an embodiment of the present invention.

도 1에 도시된 바와 같이 3D 메쉬 모델은 정점(vertex), 모서리(edge), 면(face)으로 이루어진 다각형(polygon)의 집합으로 생성되는 기하학적 모형의 데이터로서, 컴퓨터 이용 설계(computer-aided design) 및 3차원 프린트 등의 다양한 산업에서 사용되고 있다. 이때 스테가노그래피 기법(예: 한국 특허출원번호 10-2017-0089752: 분할 기법을 이용한 3차원 메쉬 모델 워터마킹 방법 및 장치)은 3차원 메쉬 모델에 제3자로 하여금 특별한 정보가 포함되었다고 파악하기 어렵게끔 정보를 삽입할 수 있다. As shown in FIG. 1, a 3D mesh model is data of a geometric model generated from a set of polygons composed of vertices, edges, and faces, and is a computer-aided design. ) And three-dimensional printing. At this time, the steganography technique (for example, Korean Patent Application No. 10-2017-0089752: 3D mesh model watermarking method and apparatus using segmentation technique) makes it difficult for a third party to identify that the 3D mesh model includes special information. Some information can be inserted.

이러한 스테가노그래피 기법은 보안 기술이 필요한 영역에 활발히 사용되고 있으나, 악성 코드의 유포 또는 테러리스트 간의 메시지 전송 수단 등에 악용될 수 있기 때문에 어떠한 컨텐츠에 스테가노그래피 기법이 사용되어 숨겨진 정보가 존재하는지 분석하는 기술이 요구되고 있다. This steganography technique is actively used in areas requiring security technology, but it can be used for distributing malicious code or a means of transmitting a message between terrorists, so that steganography technique is used to analyze what content is hidden. This is required.

이에 따라, 본 발명의 실시예는 3D 메쉬 모델에 숨겨진 정보가 존재하는지 분석하는 기술을 제공하고자 하며, 도 2 내지 도 4와 함께 본 발명의 실시예를 구현하는 방법 및 본 발명의 실시예를 통해 생성한 모델의 성능을 설명한다. Accordingly, an embodiment of the present invention is to provide a technique for analyzing whether there is hidden information in the 3D mesh model, through the embodiment of the present invention and the method of implementing the embodiment of the present invention in conjunction with FIGS. Describe the performance of the model you created.

도 2는 본 발명의 일 실시예에 따른 스테가노그래피 분석 모델 생성 방법의 프로세스를 도시하는 흐름도이다. 본 발명의 일 실시예에 따른 스테가노그래피 분석 모델 생성 방법은 하나 이상의 프로세서에 의해 수행될 수 있으며 각 단계를 설명하면 다음과 같다.2 is a flowchart illustrating a process of a method for generating a steganographic analysis model according to an embodiment of the present invention. The method for generating a steganography analysis model according to an embodiment of the present invention may be performed by one or more processors, and each step will be described below.

우선, 평활화 기법(smoothing technique)이 적용되지 않은 원본 제1 3D 메쉬 모델에 대해 평활화 기법을 적용하여 제2 3D 메쉬 모델을 생성한다(S210). First, a second 3D mesh model is generated by applying a smoothing technique to an original first 3D mesh model to which a smoothing technique is not applied (S210).

3D 메쉬 모델에 스테가노그래피 기법이 적용되어 특정 정보가 삽입되는 경우, 인간의 눈으로는 식별하기 어렵지만 3D 메쉬 모델의 일정 부분은 형태가 변하게 된다. 이때 숨겨진 정보가 삽입되지 않은 커버 메쉬(cover mesh)가 제1 3D 메쉬 모델인 경우, 제1 3D 메쉬 모델과 제2 3D 메쉬 모델의 차이에 비해, 숨겨진 정보가 삽입된 스테고 메쉬(stego mesh)가 제1 3D 메쉬 모델인 경우의 제1 3D 메쉬 모델과 제2 3D 메쉬 모델의 차이가 상대적으로 클 수 있다. 이러한 점을 기초로, 본 발명의 실시예는 제1 3D 메쉬 모델로부터 제2 3D 메쉬 모델을 생성하여 제1 3D 메쉬 모델과 제2 3D 메쉬 모델의 차이를 기초로 도출된 특징 벡터를 학습 데이터로 사용한다. When steganography is applied to a 3D mesh model to insert specific information, it is difficult to identify the human eye, but some parts of the 3D mesh model are changed in shape. In this case, when the cover mesh in which the hidden information is not inserted is the first 3D mesh model, the stego mesh in which the hidden information is inserted is compared with the difference between the first 3D mesh model and the second 3D mesh model. In the case of the first 3D mesh model, the difference between the first 3D mesh model and the second 3D mesh model may be relatively large. Based on this point, an embodiment of the present invention generates a second 3D mesh model from the first 3D mesh model and uses the feature vector derived based on the difference between the first 3D mesh model and the second 3D mesh model as training data. use.

이때 타겟 3D 메쉬 모델에 숨겨진 정보가 존재하는지의 구분을 모델을 학습하기 위해, 제1 3D 메쉬 모델은 숨겨진 정보가 삽입되지 않은 커버 메쉬 및 숨겨진 정보가 삽입된 스테고 메쉬를 포함할 수 있다. In this case, in order to learn a model to distinguish whether there is hidden information in the target 3D mesh model, the first 3D mesh model may include a cover mesh without hidden information inserted and a stego mesh with hidden information inserted.

다음으로, 제1 3D 메쉬 모델과 제2 3D 메쉬 모델의 차이를 기초로 복수의 특징 벡터를 추출한다(S220).Next, a plurality of feature vectors are extracted based on the difference between the first 3D mesh model and the second 3D mesh model (S220).

이때 본 발명의 실시예는 제1 3D 메쉬 모델의 edge normal 및 제2 3D 메쉬 모델의 edge normal의 차이를 기초로 제1 특징 벡터를 추출할 수 있다. At this time, the embodiment of the present invention may extract the first feature vector based on the difference between the edge normal of the first 3D mesh model and the edge normal of the second 3D mesh model.

여기서, 3D 메쉬 모델의 edge normal이란 아래 수학식 1을 통해 구할 수 있는 특징 벡터로서, 3D 메쉬 모델에서 공통된 모서리(

Figure 112017117788060-pat00001
)를 공유하는 모든 메쉬 조각(
Figure 112017117788060-pat00002
)의 각 메쉬 조각(f)에 대하여 각 메쉬 조각의 면적(Area(f)) 및 각 메쉬 조각의 무게 중심에서의 법선 벡터(
Figure 112017117788060-pat00003
)를 곱하여 도출된 벡터들의 합(
Figure 112017117788060-pat00004
)을 의미한다. Here, the edge normal of the 3D mesh model is a feature vector that can be obtained through Equation 1 below.
Figure 112017117788060-pat00001
) Share all mesh pieces (
Figure 112017117788060-pat00002
For each mesh piece f of), the area (f) of each mesh piece and the normal vector at the center of gravity of each mesh piece (
Figure 112017117788060-pat00003
Sum of vectors derived by multiplying
Figure 112017117788060-pat00004
).

Figure 112017117788060-pat00005
Figure 112017117788060-pat00005

이에 따라, 제1 특징 벡터(

Figure 112017117788060-pat00006
)는 아래 수학식 2와 같이, 제1 3D 메쉬 모델의 edge normal(
Figure 112017117788060-pat00007
)과 제2 3D 메쉬 모델의 edge normal(
Figure 112017117788060-pat00008
)의 내적(<
Figure 112017117788060-pat00009
>)에 대한 제1 3D 메쉬 모델 edge normal의 l2-norm(
Figure 112017117788060-pat00010
)과 제2 3D 메쉬 모델 edge normal l2-norm(
Figure 112017117788060-pat00011
)을 곱한 값의 역코사인(arccos)을 통해 도출할 수 있다. Accordingly, the first feature vector (
Figure 112017117788060-pat00006
) Is an edge normal (1) of the first 3D mesh model as shown in Equation 2 below.
Figure 112017117788060-pat00007
) And the edge normal of the second 3D mesh model
Figure 112017117788060-pat00008
) Dot product (<
Figure 112017117788060-pat00009
L2-norm () of the first 3D mesh model edge normal for
Figure 112017117788060-pat00010
) And the second 3D mesh model edge normal l2-norm (
Figure 112017117788060-pat00011
We can derive from inverse cosine (arccos) multiplied by).

Figure 112017117788060-pat00012
Figure 112017117788060-pat00012

또한 본 발명의 실시예는 제1 3D 메쉬 모델의 mean curvature 및 제2 3D 메쉬 모델의 mean curvature의 차이를 기초로 추출한 제2 특징 벡터를 추출할 수 있다. In addition, the embodiment of the present invention may extract the second feature vector extracted based on the difference between the mean curvature of the first 3D mesh model and the mean curvature of the second 3D mesh model.

여기서, mean curvature(

Figure 112017117788060-pat00013
)는 3D 메쉬 모델의 정점(
Figure 112017117788060-pat00014
)에 PCA(principal component analysis) 기법을 적용하여 도출된 값(
Figure 112017117788060-pat00015
)들의 평균을 의미한다. 다만, 간소화를 위해 아래 수학식 3과 같이 PCA 기법을 통해 구해진 값의 최대값(
Figure 112017117788060-pat00016
)과 최소값(
Figure 112017117788060-pat00017
)의 평균으로도 구할 수 있다. 여기서, PCA 기법은 공지된 기술로서 자세한 설명은 생략한다. Where mean curvature (
Figure 112017117788060-pat00013
) Is the vertex (
Figure 112017117788060-pat00014
Value obtained by applying the principal component analysis (PCA) method to
Figure 112017117788060-pat00015
Mean). However, for the sake of simplicity, the maximum value of the value obtained through the PCA method as shown in Equation 3 below (
Figure 112017117788060-pat00016
) And minimum value (
Figure 112017117788060-pat00017
It can also be obtained as an average of. Here, the PCA technique is a known technique and detailed description thereof will be omitted.

Figure 112017117788060-pat00018
Figure 112017117788060-pat00018

이에 따라, 제2 특징 벡터(

Figure 112017117788060-pat00019
)는 아래 수학식 4와 같이, 제1 3D 메쉬 모델의 mean curvature(
Figure 112017117788060-pat00020
)과 제2 3D 메쉬 모델의 mean curvature(
Figure 112017117788060-pat00021
)의 차를 통해 구할 수 있다. Accordingly, the second feature vector (
Figure 112017117788060-pat00019
) Is the mean curvature (1) of the first 3D mesh model, as shown in Equation 4 below.
Figure 112017117788060-pat00020
) And the mean curvature of the second 3D mesh model
Figure 112017117788060-pat00021
You can get it through the car.

Figure 112017117788060-pat00022
Figure 112017117788060-pat00022

더불어 본 발명의 실시예는 제1 3D 메쉬 모델의 total curvature 및 제2 3D 메쉬 모델의 total curvature의 차이를 기초로 추출한 제3 특징 벡터를 추출할 수 있다. In addition, the embodiment of the present invention may extract the third feature vector extracted based on the difference between the total curvature of the first 3D mesh model and the total curvature of the second 3D mesh model.

여기서, total curvature(

Figure 112017117788060-pat00023
)는 3D 메쉬 모델의 정점(
Figure 112017117788060-pat00024
)에 PCA(principal component analysis) 기법을 적용하여 도출된 값(
Figure 112017117788060-pat00025
)들의 합을 의미한다. 다만, 간소화를 위해 아래 수학식 5와 같이 PCA 기법을 통해 구해진 값의 최대값(
Figure 112017117788060-pat00026
)과 최소값(
Figure 112017117788060-pat00027
)의 합으로도 구할 수 있다. Where total curvature (
Figure 112017117788060-pat00023
) Is the vertex (
Figure 112017117788060-pat00024
Value obtained by applying the principal component analysis (PCA) method to
Figure 112017117788060-pat00025
) Means the sum of However, for the sake of simplicity, the maximum value of the value obtained through the PCA method as shown in Equation 5 below (
Figure 112017117788060-pat00026
) And minimum value (
Figure 112017117788060-pat00027
It can also be obtained as the sum of).

Figure 112017117788060-pat00028
Figure 112017117788060-pat00028

이에 따라, 제3 특징 벡터(

Figure 112017117788060-pat00029
)는 아래 수학식 6과 같이, 제1 3D 메쉬 모델의 total curvature(
Figure 112017117788060-pat00030
)와 제2 3D 메쉬 모델의 total curvature(
Figure 112017117788060-pat00031
)의 차를 통해 구할 수 있다.Accordingly, the third feature vector (
Figure 112017117788060-pat00029
) Is the total curvature () of the first 3D mesh model, as shown in Equation 6 below.
Figure 112017117788060-pat00030
) And the total curvature (of the second 3D mesh model
Figure 112017117788060-pat00031
You can get it through the car.

Figure 112017117788060-pat00032
Figure 112017117788060-pat00032

이외에도, 본 발명의 실시예는 직교 좌표계에서 제1 3D 메쉬 모델의 x축값 및 제2 3D 메쉬 모델의 x축값의 차이를 기초로 추출한 제4 특징 벡터, 직교 좌표계에서 제1 3D 메쉬 모델의 y축값 및 제2 3D 메쉬 모델의 y축값의 차이를 기초로 추출한 제5 특징 벡터, 직교 좌표계에서 제1 3D 메쉬 모델의 z축값 및 제2 3D 메쉬 모델의 z축값의 차이를 기초로 추출한 제6 특징 벡터, 라플라시안 좌표계(laplacian coordinate system)에서 제1 3D 메쉬 모델의 x축값 및 제2 3D 메쉬 모델의 x축값의 차이를 기초로 추출한 제7 특징 벡터, 라플라시안 좌표계에서 제1 3D 메쉬 모델의 y축값 및 제2 3D 메쉬 모델의 y축값의 차이를 기초로 추출한 제8 특징 벡터, 라플라시안 좌표계에서 제1 3D 메쉬 모델의 y축값 및 제2 3D 메쉬 모델의 y축값의 차이를 기초로 추출한 제9 특징 벡터, 직교 좌표계에서 제1 3D 메쉬 모델의 정점의 좌표 및 제2 3D 메쉬 모델의 정점의 좌표의 차이를 기초로 추출한 제10 특징 벡터, 라플라시안 좌표계에서 제1 3D 메쉬 모델의 정점의 좌표 및 제2 3D 메쉬 모델의 정점의 좌표의 차이를 기초로 추출한 제11 특징 벡터, 제1 3D 메쉬 모델에서 모서리를 공유하는 두 면의 이면각(dihedral angle) 및 제2 3D 메쉬 모델에서 모서리를 공유하는 두 면의 이면각의 차이를 기초로 추출되는 제12 특징 벡터, 제1 3D 메쉬 모델의 면(face)과 제2 3D 메쉬 모델의 면의 각도 차이를 기초로 추출되는 제13 특징 벡터, 제1 3D 메쉬 모델의 vertex normal 및 제2 3D 메쉬 모델의 vertex normal의 차이를 기초로 추출되는 제14 특징 벡터, 제1 3D 메쉬 모델의 gaussian curvature 및 제2 3D 메쉬 모델의 gaussian curvature의 차이를 기초로 추출되는 제15 특징 벡터 및 제1 3D 메쉬 모델의 curvature ratio 및 제2 3D 메쉬 모델의 curvature ratio의 차이를 기초로 추출되는 제16 특징 벡터를 생성할 수 있다. 여기서, 제4 특징 벡터 내지 제16 특징 벡터를 추출하는 자세한 과정은 "Li, Z., Bors, A.G.: 3D mesh steganalysis using local shape features. In: IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), pp. 2144-2148. IEEE (2016)"을 참조할 수 있다. In addition, the embodiment of the present invention is a fourth feature vector extracted based on the difference between the x-axis value of the first 3D mesh model and the x-axis value of the second 3D mesh model in the Cartesian coordinate system, the y-axis value of the first 3D mesh model in the Cartesian coordinate system And a fifth feature vector extracted based on the difference in the y-axis values of the second 3D mesh model, the sixth feature vector extracted based on the difference in the z-axis values of the first 3D mesh model and the z-axis value of the second 3D mesh model in the Cartesian coordinate system. , A seventh feature vector extracted based on a difference between the x-axis value of the first 3D mesh model and the x-axis value of the second 3D mesh model in the laplacian coordinate system, and the y-axis value and the first value of the first 3D mesh model in the Laplacian coordinate system. 2 The eighth feature vector extracted based on the difference in the y-axis values of the 3D mesh model, The ninth feature vector extracted based on the difference in the y-axis values of the first 3D mesh model and the y-axis value of the second 3D mesh model in the Laplacian coordinate system, Orthogonal First in coordinate system A tenth feature vector extracted based on the difference between the coordinates of the vertices of the 3D mesh model and the coordinates of the vertices of the second 3D mesh model, the coordinates of the vertices of the first 3D mesh model in the Laplacian coordinate system, and the coordinates of the vertices of the second 3D mesh model Based on the eleventh feature vector extracted based on the difference of, the dihedral angle of the two faces sharing the edges in the first 3D mesh model, and the difference in the backside angles of the two faces sharing the edges in the second 3D mesh model. The 13 th feature vector extracted based on the angular difference between the face of the first 3D mesh model and the face of the first 3D mesh model, the vertex normal and the second vertex normal of the first 3D mesh model The fifteenth feature vector extracted based on the difference in the vertex normal of the 3D mesh model, the fifteenth feature vector and the first 3D extracted based on the difference of the gaussian curvature of the first 3D mesh model and the gaussian curvature of the second 3D mesh model Curvature rati of mesh model A sixteenth feature vector extracted based on a difference in curvature ratios of o and the second 3D mesh model may be generated. Herein, a detailed process of extracting the fourth to sixteenth feature vectors may be described in "Li, Z., Bors, AG: 3D mesh steganalysis using local shape features.In: IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP) , pp. 2144-2148. IEEE (2016).

한편, S220 단계는 제1 3D 메쉬 모델 및 제2 3D 메쉬 모델의 차이를 기초로 추출한 각각의 특징 벡터에 대하여 평균(mean) 벡터, 분산(variance) 벡터, 왜도(skewness) 벡터 및 첨도(kurtosis) 벡터를 생성하는 단계를 포함할 수 있다. Meanwhile, in step S220, a mean vector, a variance vector, a skewness vector, and a kurtosis for each feature vector extracted based on the difference between the first 3D mesh model and the second 3D mesh model. ) Generating the vector.

이에 따라, 본 발명의 실시예는 각 벡터로부터 추가적으로 추출된 평균 벡터, 분산 벡터, 왜도 벡터 및 첨도 벡터를 사용하여 4배의 학습 데이터를 도출하여 학습 데이터를 대폭 증가시킬 수 있다. Accordingly, the embodiment of the present invention can significantly increase the training data by deriving four times the training data using the average vector, the variance vector, the skewness vector, and the kurtosis vector, which are additionally extracted from each vector.

더하여 3D 메쉬 모델은 3D 메쉬 모델을 구성하는 정점(vertex), 모서리(edge), 면(face)의 개수 및 형태가 3D 메쉬 모델 마다 각기 상이하기 때문에 3D 메쉬 모델 자체로부터 얻어지는 특징 벡터는 3D 메쉬 모델마다 상이하여 숨겨진 정보가 있는지 판단하기 위한 범용적인 요소로 사용하기 어려운 점이 있으나, 본 발명의 실시예는 평균 벡터, 분산 벡터, 왜도 벡터 및 첨도 벡터를 학습 데이터로 사용하여 각 3D 메쉬 모델마다 추출되는 벡터의 차원을 동일하게 변경할 수 있으므로, 여러 가지 3D 메쉬 모델에 대해 범용적인 판단 요소를 추출할 수 있다. 한편, 벡터의 집합으로부터 평균 벡터, 분산 벡터, 왜도 벡터 및 첨도 벡터를 구하는 과정은 이미 알려진 수학적 방법으로서 통계학("https://en.wikipedia.org/wiki/Moment_(mathematics)")을 참조할 수 있다. In addition, the feature vector obtained from the 3D mesh model itself is different from the 3D mesh model because the number and shape of the vertices, edges, and faces that make up the 3D mesh model are different for each 3D mesh model. Although it is difficult to use it as a general purpose element for determining whether there is different hidden information for each, an embodiment of the present invention extracts each 3D mesh model using the mean vector, the variance vector, the skewness vector, and the kurtosis vector as training data. Since the dimensions of the vector to be changed can be changed to be the same, it is possible to extract general judgment elements for various 3D mesh models. On the other hand, the process of obtaining the mean vector, the variance vector, the skewness vector, and the kurtosis vector from a set of vectors refers to statistics ("https://en.wikipedia.org/wiki/Moment_(mathematics)") as a known mathematical method. can do.

다음으로, 입력되는 벡터의 차원 수를 변형시켜 서로 간에 선형 독립적(linearly independent)인 관계를 갖도록 하는 커널 공간에 각각의 특징 벡터로부터 생성된 평균 벡터, 분산 벡터, 왜도 벡터 및 첨도 벡터를 입력하여 각 벡터 서로 간에 선형 독립적인 관계를 갖도록 변환된 선형 독립 벡터들을 생성하는 단계를 포함할 수 있다(S230). Next, a mean vector, a variance vector, a skewness vector, and a kurtosis vector generated from each feature vector are inputted into a kernel space that transforms the number of dimensions of the input vector to have a linearly independent relationship with each other. Each vector may include generating linear independent vectors transformed to have a linear independent relationship with each other (S230).

기계 학습 알고리즘은 선형 종속적(linear dependent)인 관계에 있는 학습 데이터로 학습을 하는 경우 모델의 정확도가 떨어진다는 특성이 있다. 이때 3D 메쉬 모델에서 추출한 특징 벡터들은 서로 선형 종속적인 관계에 있기 때문에, S230 단계에서는 벡터의 차원 수를 변형시켜 서로 간에 선형 독립적(linearly independent)인 관계를 갖도록 하는 커널 공간에 S220 단계에서 추출한 특징 벡터들을 입력하여 각각의 특징 벡터들이 변환된 선형 독립 벡터를 생성할 수 있다. 이때 커널 공간은 기존에 알려진 수학적 방법인 homogeneous kernel map 알고리즘(Vedaldi, A., Zisserman, A.: Ecient additive kernels via explicit feature maps.IEEE Trans. Pattern Anal. Mach. Intell. (TPAMI) 34(3), 480-492 (2012))을 기초로 생성될 수 있으며, 커널 공간은 입력되는 벡터가 갖는 차원 수에 비해 보다 높은 차원을 갖도록 변형함으로써 출력되는 벡터 서로 간에 선형 독립적인 관계를 갖도록 할 수 있다. The machine learning algorithm is characterized in that the accuracy of the model is poor when learning with the training data in a linear dependent relationship. In this case, since the feature vectors extracted from the 3D mesh model are linearly dependent on each other, in step S230, the feature vectors extracted in the step S220 in the kernel space are modified so that they have a linearly independent relationship with each other. By inputting them, a linear independent vector obtained by converting each feature vector may be generated. The kernel space is homogeneous kernel map algorithm (Vedaldi, A., Zisserman, A .: Ecient additive kernels via explicit feature maps.IEEE Trans.Pattern Anal.Mach.Intel. (TPAMI) 34 (3). , 480-492 (2012)), and the kernel space may be modified to have a higher dimension than the number of dimensions of the input vector so that the output vectors may have a linear independent relationship with each other.

한편, S230은 본 발명의 효과를 보다 향상시키기 위해 선택적으로 수행 가능한 단계로서, 프로세서는 S230 단계를 제외한 S210, S220 및 다음에 설명할 S240 단계만을 수행할 수도 있다.On the other hand, S230 is a step that can be selectively performed to further improve the effect of the present invention, the processor may perform only steps S210, S220 and S240 to be described later except step S230.

이후, S220 또는 S230 단계에서 추출한 특징 벡터에 관한 정보를 기초로 기계 학습을 수행하여 타겟 3D 메쉬 모델 내에 숨겨진 정보가 존재하는 지 판별하는 모델을 생성한다(S240). Subsequently, machine learning is performed based on the information about the feature vector extracted in step S220 or S230 to generate a model for determining whether there is hidden information in the target 3D mesh model (S240).

이때 모델을 학습시키기 위해 학습 데이터로서 사용되는 특징 벡터에 관한 정보는, 예를 들어 제1 특징 벡터 내지 제16 특징 벡터, 또는 제1 특징 벡터 내지 제16 특징 벡터의 각각으로부터 추출된 평균 벡터, 분산 벡터, 왜도 벡터 및 첨도 벡터(이하, 'LFS64'로 지칭한다), 또는 LFS64를 커널 공간에 입력하여 변형시킨 선형 독립 벡터(이하, 'LFS64+HKM'로 지칭한다)가 될 수 있다. In this case, the information about the feature vector used as the training data to train the model may be, for example, an average vector extracted from each of the first to sixteenth feature vectors, or the first to sixteenth feature vectors, and the variance. Vector, skewness vector and kurtosis vector (hereinafter referred to as 'LFS64'), or linear independent vector (hereinafter referred to as 'LFS64 + HKM') modified by inputting LFS64 into kernel space.

또한 커버 메쉬에 해당하는 제1 3D 메쉬 모델을 기초로 S210 및 S220 단계가 수행된 경우에는 숨겨진 정보가 삽입되지 않았다는 정보를 의미하는 레이블을 모델의 출력 변수로 설정하고, 스테고 메쉬에 해당하는 제1 3D 메쉬 모델을 기초로 S210 및 S220 단계가 수행된 경우에는 숨겨진 정보가 삽입되어 있다는 정보를 의미하는 레이블을 모델의 출력 변수로 설정하여 모델을 학습시킬 수 있다. In addition, when the steps S210 and S220 are performed based on the first 3D mesh model corresponding to the cover mesh, a label representing information indicating that hidden information has not been inserted is set as an output variable of the model, and the first corresponding to the stego mesh. When the steps S210 and S220 are performed based on the 3D mesh model, the model may be trained by setting a label representing information indicating that hidden information is inserted as an output variable of the model.

도 3은 본 발명의 일 실시예에 따른 스테가노그래피 분석 모델의 성능을 측정하기 위한 AUC(area under the curve) 지표를 설명하기 위한 그래프이고, 도 4는 본 발명의 일 실시예에 따른 스테가노그래피 분석 모델의 검출 오류율(detection error)을 설명하기 위한 그래프이다. 3 is a graph illustrating an AUC (area under the curve) index for measuring the performance of a steganographic analysis model according to an embodiment of the present invention, Figure 4 is a stegano according to an embodiment of the present invention It is a graph for explaining the detection error of a graph analysis model.

도 3 및 도 4는 The Princeton Mesh Segmentation database에 저장된 3D 메쉬 모델 데이터들을 학습 데이터로 사용하여, 여러 기술을 적용하여 생성한 모델의 성능을 테스트한 실험의 결과이다. 이때 데이터 베이스에 저장되어 있는 커버 메쉬에 숨겨진 정보를 삽입하는 기술로는 제1 스테가노그래피 기법(Chao, M.W., Lin, C.H., Yu, C.W., Lee, T.Y.: A high capacity 3D steganography algorithm. IEEE Trans. Vis. Comput. Graph. (TVCG) 15(2), 274-284 (2009)) 및 제2 스테가노그래피 기법(Cho, J.W., Prost, R., Jung, H.Y.: An oblivious watermarking for 3-D polygonal meshes using distribution of vertex norms. IEEE Trans. Sig. Process. (TSP) 55(1), 142-155 (2007))을 사용하였다. 3 and 4 show the results of experiments that test the performance of models generated by applying various techniques, using 3D mesh model data stored in The Princeton Mesh Segmentation database as training data. In this case, a technique of inserting hidden information into a cover mesh stored in a database includes a first steganography technique (Chao, MW, Lin, CH, Yu, CW, Lee, TY: A high capacity 3D steganography algorithm.IEEE Trans) Vis.Comput.Graph. (TVCG) 15 (2), 274-284 (2009)) and second steganography techniques (Cho, JW, Prost, R., Jung, HY: An oblivious watermarking for 3-D polygonal meshes using distribution of vertex norms.IEEE Trans.Sig.Process. (TSP) 55 (1), 142-155 (2007)).

이때 도 3 및 도 4에 도시된 LFS52는 (Li, Z., Bors, A.G.: 3D mesh steganalysis using local shape features. In: IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), pp. 2144-2148. IEEE (2016))에 따른 기술을 기초로 생성한 모델을 이용한 결과이고, LFS64는 본 발명의 실시예 중 제1 특징 벡터 내지 제16 특징 벡터의 각각으로부터 추출된 평균 벡터, 분산 벡터, 왜도 벡터 및 첨도 벡터를 기초로 생성한 모델을 이용한 결과이고, LFS64+HKM은 제1 특징 벡터 내지 제16 특징 벡터의 각각으로부터 추출된 평균 벡터, 분산 벡터, 왜도 벡터 및 첨도 벡터를 커널 공간을 통해 변형시킨 선형 독립 벡터들을 기초로 생성한 모델을 이용한 결과를 의미한다. At this time, the LFS52 shown in FIGS. 3 and 4 is (Li, Z., Bors, AG: 3D mesh steganalysis using local shape features.In: IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), pp. 2144-2148 LFS64 is an average vector, variance vector, and skewness extracted from each of the first to sixteenth feature vectors of the present invention. The result of using a model generated based on the vector and the kurtosis vector, LFS64 + HKM is the average vector, variance vector, skewness vector and kurtosis vector extracted from each of the first to sixteenth feature vectors through kernel space. Means the result using the model generated based on the modified linear independent vectors.

이때 도 3을 참조하면, 제1 스테가노그래피 기법(a) 및 제2 스테가노그래피 기법(b) 모두 본 발명의 실시예들이 기존 기술에 비해 곡선의 하부 영역이 훨씬 넓으므로 정확도가 대폭 향상되었음을 확인할 수 있으며, 도 4를 참조하면, 제1 스테가노그래피 기법(a) 및 제2 스테가노그래피 기법(b) 모두 본 발명의 실시예들이 기존 기술에 비해 검출 오류율이 감소된 것을 확인할 수 있다.In this case, referring to FIG. 3, both the first steganography technique (a) and the second steganography technique (b) show that the embodiments of the present invention have a much wider lower area of the curve than the conventional technique, and thus the accuracy is greatly improved. 4, it can be seen that the embodiments of the present invention reduce the detection error rate in both the first steganography technique (a) and the second steganography technique (b).

상술한 실시예에 따르면, 3D 메쉬 모델의 edge normal, mean curvature 및 total curvature로부터 도출한 특징 벡터의 차원 수를 일치시킴으로써, 3D 메쉬 모델마다 정점, 모서리, 면 등의 구성요소가 각기 상이하여도 범용적으로 사용할 수 있는 판단 요소를 생성할 수 있다. According to the embodiment described above, by matching the number of dimensions of the feature vectors derived from the edge normal, mean curvature, and total curvature of the 3D mesh model, even if the components such as vertices, edges, and faces are different for each 3D mesh model It can create judgment elements that can be used as a target.

또한 homogeneous kernel map 알고리즘을 통해 3D 메쉬 모델로부터 추출된 특징 벡터들이 선형 독립적(linear independent)인 관계를 갖도록 변형하여 기계 학습되는 모델의 정확성을 향상시킬 수 있다. In addition, the homogeneous kernel map algorithm can improve the accuracy of machine-learned models by transforming feature vectors extracted from 3D mesh models to have a linear independent relationship.

상술한 본 발명의 실시예들은 다양한 수단을 통해 구현될 수 있다. 예를 들어, 본 발명의 실시예들은 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다.Embodiments of the present invention described above may be implemented through various means. For example, embodiments of the present invention may be implemented by hardware, firmware, software, or a combination thereof.

하드웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 프로세서, 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.For implementation in hardware, a method according to embodiments of the present invention may include one or more Application Specific Integrated Circuits (ASICs), Digital Signal Processors (DSPs), Digital Signal Processing Devices (DSPDs), and Programmable Logic Devices (PLDs). It may be implemented by field programmable gate arrays (FPGAs), processors, controllers, microcontrollers, microprocessors, and the like.

펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차 또는 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드 등이 기록된 컴퓨터 프로그램은 컴퓨터 판독 가능 기록 매체 또는 메모리 유닛에 저장되어 프로세서에 의해 구동될 수 있다. 메모리 유닛은 프로세서 내부 또는 외부에 위치하여, 이미 공지된 다양한 수단에 의해 프로세서와 데이터를 주고 받을 수 있다.In the case of an implementation by firmware or software, the method according to the embodiments of the present invention may be implemented in the form of a module, a procedure, or a function that performs the functions or operations described above. The computer program in which the software code or the like is recorded can be stored in a computer readable recording medium or a memory unit and driven by a processor. The memory unit may be located inside or outside the processor, and may exchange data with the processor by various known means.

또한 본 발명에 첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 인코딩 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 인코딩 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방법으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 블록도의 각 블록 또는 흐름도 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 블록도의 각 블록 및 흐름도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.In addition, the combination of each block of the block diagram and each step of the flowchart attached to the present invention may be performed by computer program instructions. These computer program instructions may be mounted on an encoding processor of a general purpose computer, special purpose computer, or other programmable data processing equipment such that the instructions executed by the encoding processor of the computer or other programmable data processing equipment are not included in each block or block diagram. It will create means for performing the functions described in each step of the flowchart. These computer program instructions may be stored in a computer usable or computer readable memory that can be directed to a computer or other programmable data processing equipment to implement functionality in a particular manner, and thus the computer usable or computer readable memory. It is also possible for the instructions stored therein to produce an article of manufacture containing instruction means for performing the functions described in each block or flow chart step of the block diagram. Computer program instructions may also be mounted on a computer or other programmable data processing equipment, such that a series of operating steps may be performed on the computer or other programmable data processing equipment to create a computer-implemented process to create a computer or other programmable data. Instructions that perform processing equipment may also provide steps for performing the functions described in each block of the block diagram and in each step of the flowchart.

더불어 각 블록 또는 각 단계는 특정된 논리적 기능을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또한 몇 가지 대체 실시예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들 또는 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.In addition, each block or step may represent a portion of a module, segment, or code that includes one or more executable instructions for executing a specified logical function. It should also be noted that in some alternative embodiments the functions noted in the blocks or steps may occur out of order. For example, the two blocks or steps shown in succession may in fact be executed substantially concurrently, or the blocks or steps may sometimes be performed in the reverse order, depending on the functionality involved.

이와 같이, 본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.As such, those skilled in the art will appreciate that the present invention can be implemented in other specific forms without changing the technical spirit or essential features thereof. Therefore, the above-described embodiments are to be understood as illustrative in all respects and not as restrictive. The scope of the present invention is shown by the following claims rather than the detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included in the scope of the present invention. .

Claims (13)

하나 이상의 프로세서에 의해 수행되는 스테가노그래피(steganography) 분석 모델 생성 방법에 있어서,
제1 3D 메쉬 모델을 평활화(smoothing technique)한 제2 3D 메쉬 모델을 생성하는 단계;
상기 제1 3D 메쉬 모델의 edge normal 및 상기 제2 3D 메쉬 모델의 edge normal의 차이를 기초로 추출한 제1 특징 벡터, 상기 제1 3D 메쉬 모델의 mean curvature 및 상기 제2 3D 메쉬 모델의 mean curvature의 차이를 기초로 추출한 제2 특징 벡터 및 상기 제1 3D 메쉬 모델의 total curvature 및 상기 제2 3D 메쉬 모델의 total curvature의 차이를 기초로 추출한 제3 특징 벡터를 추출하는 단계; 및
상기 제1, 제2 및 제3 특징 벡터에 관한 정보를 기초로 기계 학습을 수행하여 타겟 3D 메쉬 모델 내에 숨겨진 정보가 존재하는 지 판별하는 모델을 생성하는 단계를 포함하고,
상기 edge normal은,
3D 메쉬 모델에서 공통된 모서리(edge)를 공유하는 각 메쉬 조각에 대하여 상기 각 메쉬 조각의 면적 및 상기 각 메쉬 조각의 무게 중심에서의 법선 벡터를 곱하여 도출된 벡터들의 합인
스테가노그래피 분석 모델 생성 방법.
In the method for generating a steganography analysis model performed by one or more processors,
Generating a second 3D mesh model that smoothes the first 3D mesh model;
A first feature vector extracted based on a difference between an edge normal of the first 3D mesh model and an edge normal of the second 3D mesh model, a mean curvature of the first 3D mesh model, and a mean curvature of the second 3D mesh model Extracting a third feature vector extracted based on the difference between the second feature vector extracted based on the difference and the total curvature of the first 3D mesh model and the total curvature of the second 3D mesh model; And
And performing machine learning based on the information about the first, second and third feature vectors to generate a model for determining whether there is hidden information in a target 3D mesh model.
The edge normal is,
For each mesh piece that shares a common edge in a 3D mesh model, the sum of the vectors derived by multiplying the area of each mesh piece and the normal vector at the center of gravity of each mesh piece
How to create a steganographic analysis model.
제1항에 있어서,
상기 제1 3D 메쉬 모델은,
원본에 해당하는 커버 메쉬(cover mesh) 및 상기 원본에 숨겨진 정보가 삽입된 스테고 메쉬(stego mesh)를 포함하는
스테가노그래피 분석 모델 생성 방법.
The method of claim 1,
The first 3D mesh model,
A cover mesh corresponding to the original and a stego mesh into which the information hidden in the original is inserted;
How to create a steganographic analysis model.
제1항에 있어서,
상기 추출하는 단계는,
각각의 특징 벡터에 대하여 평균(mean) 벡터, 분산(variance) 벡터, 왜도(skewness) 벡터 및 첨도(kurtosis) 벡터를 생성하는 단계를 포함하는
스테가노그래피 분석 모델 생성 방법.
The method of claim 1,
The extracting step,
Generating a mean vector, a variance vector, a skewness vector, and a kurtosis vector for each feature vector.
How to create a steganographic analysis model.
제3항에 있어서,
입력되는 벡터의 차원 수를 변형시켜 서로 간에 선형 독립적(linearly independent)인 관계를 갖도록 하는 커널 공간에 상기 각각의 특징 벡터로부터 생성된 상기 평균 벡터, 분산 벡터, 왜도 벡터 및 첨도 벡터를 입력하여 상기 각각이 변환된 선형 독립 벡터를 생성하는 단계를 더 포함하고,
상기 제1, 제2 및 제3 특징 벡터에 관한 정보는 상기 선형 독립 벡터를 포함하는
스테가노그래피 분석 모델 생성 방법.
The method of claim 3,
The average vector, the variance vector, the skewness vector, and the kurtosis vector generated from the respective feature vectors are inputted into kernel space to modify the number of dimensions of the input vector so as to have a linearly independent relationship with each other. Generating a linear independent vector, each transformed,
The information about the first, second and third feature vectors includes the linear independent vector.
How to create a steganographic analysis model.
제4항에 있어서,
상기 커널 공간은,
homogeneous kernel map 알고리즘을 기초로 생성되는
스테가노그래피 분석 모델 생성 방법.
The method of claim 4, wherein
The kernel space is
generated based on the homogeneous kernel map algorithm
How to create a steganographic analysis model.
삭제delete 제1항에 있어서,
상기 제1 특징 벡터는,
상기 제1 3D 메쉬 모델의 edge normal과 상기 제2 3D 메쉬 모델의 edge normal 의 내적에 대한 상기 제1 3D 메쉬 모델의 edge normal의 l2-norm 값과 상기 제2 3D 메쉬 모델의 edge normal의 l2-norm 값을 곱한 값의 비율에 역코사인을 취한 값인
스테가노그래피 분석 모델 생성 방법.
The method of claim 1,
The first feature vector is
L2-norm of the edge normal of the first 3D mesh model and l2- of the edge normal of the second 3D mesh model with respect to the inner product of the edge normal of the first 3D mesh model and the edge normal of the second 3D mesh model the ratio of the product of norm to the ratio of inverse cosine
How to create a steganographic analysis model.
제1항에 있어서,
상기 mean curvature는,
3D 메쉬 모델의 정점(vertex)에 PCA(principal component analysis) 기법을 적용하여 도출된 값의 평균인
스테가노그래피 분석 모델 생성 방법.
The method of claim 1,
The mean curvature is,
The average of the values derived by applying principal component analysis (PCA) to the vertices of the 3D mesh model
How to create a steganographic analysis model.
제1항에 있어서,
상기 total curvature는,
3D 메쉬 모델의 정점(vertex)에 PCA(principal component analysis) 기법을 적용하여 도출된 값의 총합인
스테가노그래피 분석 모델 생성 방법.
The method of claim 1,
The total curvature is,
The sum of the values derived by applying principal component analysis (PCA) to the vertices of a 3D mesh model.
How to create a steganographic analysis model.
제1항에 있어서,
상기 추출하는 단계는,
직교 좌표계에서 상기 제1 3D 메쉬 모델의 x축값 및 상기 제2 3D 메쉬 모델의 x축값의 차이를 기초로 추출한 제4 특징 벡터,
상기 직교 좌표계에서 상기 제1 3D 메쉬 모델의 y축값 및 상기 제2 3D 메쉬 모델의 y축값의 차이를 기초로 추출한 제5 특징 벡터,
상기 직교 좌표계에서 상기 제1 3D 메쉬 모델의 z축값 및 상기 제2 3D 메쉬 모델의 z축값의 차이를 기초로 추출한 제6 특징 벡터,
라플라시안 좌표계(laplacian coordinate system)에서 상기 제1 3D 메쉬 모델의 x축값 및 상기 제2 3D 메쉬 모델의 x축값의 차이를 기초로 추출한 제7 특징 벡터,
상기 라플라시안 좌표계에서 상기 제1 3D 메쉬 모델의 y축값 및 상기 제2 3D 메쉬 모델의 y축값의 차이를 기초로 추출한 제8 특징 벡터,
상기 라플라시안 좌표계에서 상기 제1 3D 메쉬 모델의 y축값 및 상기 제2 3D 메쉬 모델의 y축값의 차이를 기초로 추출한 제9 특징 벡터,
상기 직교 좌표계에서 상기 제1 3D 메쉬 모델의 정점의 좌표 및 상기 제2 3D 메쉬 모델의 정점의 좌표의 차이를 기초로 추출한 제10 특징 벡터,
상기 라플라시안 좌표계에서 상기 제1 3D 메쉬 모델의 정점의 좌표 및 상기 제2 3D 메쉬 모델의 정점의 좌표의 차이를 기초로 추출한 제11 특징 벡터,
상기 제1 3D 메쉬 모델에서 모서리를 공유하는 두 면의 이면각(dihedral angle) 및 상기 제2 3D 메쉬 모델에서 모서리를 공유하는 두 면의 이면각의 차이를 기초로 추출되는 제12 특징 벡터,
상기 제1 3D 메쉬 모델의 면(face)과 상기 제2 3D 메쉬 모델의 면의 각도 차이를 기초로 추출되는 제13 특징 벡터,
상기 제1 3D 메쉬 모델의 vertex normal 및 상기 제2 3D 메쉬 모델의 vertex normal의 차이를 기초로 추출되는 제14 특징 벡터,
상기 제1 3D 메쉬 모델의 gaussian curvature 및 상기 제2 3D 메쉬 모델의 gaussian curvature의 차이를 기초로 추출되는 제15 특징 벡터, 및
상기 제1 3D 메쉬 모델의 curvature ratio 및 상기 제2 3D 메쉬 모델의 curvature ratio의 차이를 기초로 추출되는 제16 특징 벡터를 추출하는 단계를 포함하고,
상기 모델을 생성하는 단계는,
상기 제4 특징 벡터 내지 제16 특징 벡터에 관한 정보를 추가하여 기계 학습을 수행하는
스테가노그래피 분석 모델 생성 방법.
The method of claim 1,
The extracting step,
A fourth feature vector extracted based on a difference between an x-axis value of the first 3D mesh model and an x-axis value of the second 3D mesh model in a rectangular coordinate system,
A fifth feature vector extracted based on a difference between the y-axis value of the first 3D mesh model and the y-axis value of the second 3D mesh model in the rectangular coordinate system,
A sixth feature vector extracted based on a difference between a z-axis value of the first 3D mesh model and a z-axis value of the second 3D mesh model in the rectangular coordinate system;
A seventh feature vector extracted based on a difference between an x-axis value of the first 3D mesh model and an x-axis value of the second 3D mesh model in a laplacian coordinate system,
An eighth feature vector extracted based on a difference between a y-axis value of the first 3D mesh model and a y-axis value of the second 3D mesh model in the Laplacian coordinate system,
A ninth feature vector extracted based on a difference between a y-axis value of the first 3D mesh model and a y-axis value of the second 3D mesh model in the Laplacian coordinate system,
A tenth feature vector extracted based on a difference between coordinates of a vertex of the first 3D mesh model and coordinates of a vertex of the second 3D mesh model in the rectangular coordinate system;
An eleventh feature vector extracted based on a difference between coordinates of a vertex of the first 3D mesh model and coordinates of a vertex of the second 3D mesh model in the Laplacian coordinate system,
A twelfth feature vector extracted based on a difference between a dihedral angle of two faces sharing edges in the first 3D mesh model and a back angle of two faces sharing edges in the second 3D mesh model;
A thirteenth feature vector extracted based on an angle difference between a face of the first 3D mesh model and a face of the second 3D mesh model;
A fourteenth feature vector extracted based on a difference between a vertex normal of the first 3D mesh model and a vertex normal of the second 3D mesh model,
A fifteenth feature vector extracted based on a difference between a gaussian curvature of the first 3D mesh model and a gaussian curvature of the second 3D mesh model, and
Extracting a sixteenth feature vector extracted based on a difference between a curvature ratio of the first 3D mesh model and a curvature ratio of the second 3D mesh model,
Generating the model,
Machine learning is performed by adding information about the fourth to sixteenth feature vectors.
How to create a steganographic analysis model.
제1항 내지 제5항, 제7항 내지 제10항 중 어느 한 항의 방법을 수행하는 프로세서를 포함하는 장치.
An apparatus comprising a processor for performing the method of any one of claims 1 to 5 and 7 to 10.
제1항 내지 제5항, 제7항 내지 제10항 중 어느 한 항의 방법을 프로세서가 수행하게 하는 명령어를 포함하는 컴퓨터 프로그램이 기록된 컴퓨터 판독 가능 기록매체.
A computer readable recording medium having recorded thereon a computer program comprising instructions for causing a processor to perform the method of any one of claims 1 to 5 and 7 to 10.
제1항 내지 제5항, 제7항 내지 제10항 중 어느 한 항의 방법을 프로세서가 수행하도록 하는 컴퓨터 판독 가능 기록매체에 저장된 컴퓨터 프로그램. A computer program stored on a computer readable recording medium for causing a processor to perform the method of any one of claims 1 to 5 and 7 to 10.
KR1020170159247A 2017-11-27 2017-11-27 Method and apparatus for generating steganography analysis model KR102054347B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170159247A KR102054347B1 (en) 2017-11-27 2017-11-27 Method and apparatus for generating steganography analysis model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170159247A KR102054347B1 (en) 2017-11-27 2017-11-27 Method and apparatus for generating steganography analysis model

Publications (2)

Publication Number Publication Date
KR20190061171A KR20190061171A (en) 2019-06-05
KR102054347B1 true KR102054347B1 (en) 2019-12-10

Family

ID=66845455

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170159247A KR102054347B1 (en) 2017-11-27 2017-11-27 Method and apparatus for generating steganography analysis model

Country Status (1)

Country Link
KR (1) KR102054347B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113706360B (en) * 2021-08-18 2024-03-19 南京航空航天大学 3D grid steganography method based on feature preserving distortion model

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5913041B2 (en) * 2012-01-19 2016-04-27 公立大学法人会津大学 Secret information concealment device, secret information restoration device, secret information concealment program, and secret information restoration program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101806665B1 (en) 2016-02-15 2018-01-10 이화여자대학교 산학협력단 Transferring method for encrypted information based on steganography

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5913041B2 (en) * 2012-01-19 2016-04-27 公立大学法人会津大学 Secret information concealment device, secret information restoration device, secret information concealment program, and secret information restoration program

Also Published As

Publication number Publication date
KR20190061171A (en) 2019-06-05

Similar Documents

Publication Publication Date Title
US11636234B2 (en) Generating 3D models representing buildings
Bhattacharya et al. Augmented reality via expert demonstration authoring (AREDA)
EP3506160B1 (en) Semantic segmentation of 2d floor plans with a pixel-wise classifier
US11004208B2 (en) Interactive image matting using neural networks
Chan et al. Volumetric parametrization from a level set boundary representation with PHT-splines
WO2016197046A1 (en) Spatial transformer modules
Chen et al. An illustrative visualization framework for 3d vector fields
CN103646416A (en) Three-dimensional cartoon face texture generation method and device
EP4016473A1 (en) Method, apparatus, and computer program product for training a signature encoding module and a query processing module to identify objects of interest within an image utilizing digital signatures
US20170160726A1 (en) Detecting cut-outs
JP7294788B2 (en) Classification of 2D images according to the type of 3D placement
Meng et al. 3d interacting hand pose estimation by hand de-occlusion and removal
JP2020522773A (en) Detection and representation of objects in images
CN103946865B (en) Method and apparatus for contributing to the text in detection image
Cukovic et al. Engineering design education for industry 4.0: implementation of augmented reality concept in teaching CAD courses
KR20200136723A (en) Method and apparatus for generating learning data for object recognition using virtual city model
CA3207430A1 (en) Rendering new images of scenes using geometry-aware neural networks conditioned on latent variables
US11403807B2 (en) Learning hybrid (surface-based and volume-based) shape representation
US10943037B2 (en) Generating a CAD model from a finite element mesh
KR102054347B1 (en) Method and apparatus for generating steganography analysis model
US20220392251A1 (en) Method and apparatus for generating object model, electronic device and storage medium
Ruwanthika et al. Dynamic 3D model construction using architectural house plans
KR101630257B1 (en) 3D image providing system and providing method thereof
Dorr et al. Shape similarity based on the qualitative spatial reasoning calculus eopram
US11610326B2 (en) Synthesizing 3D hand pose based on multi-modal guided generative networks

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant