KR102547323B1 - Object segmentation device and method formed through 3d scanning - Google Patents

Object segmentation device and method formed through 3d scanning Download PDF

Info

Publication number
KR102547323B1
KR102547323B1 KR1020230034766A KR20230034766A KR102547323B1 KR 102547323 B1 KR102547323 B1 KR 102547323B1 KR 1020230034766 A KR1020230034766 A KR 1020230034766A KR 20230034766 A KR20230034766 A KR 20230034766A KR 102547323 B1 KR102547323 B1 KR 102547323B1
Authority
KR
South Korea
Prior art keywords
data
segment
masked
scan
texture image
Prior art date
Application number
KR1020230034766A
Other languages
Korean (ko)
Inventor
이채영
Original Assignee
이채영
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이채영 filed Critical 이채영
Priority to KR1020230034766A priority Critical patent/KR102547323B1/en
Application granted granted Critical
Publication of KR102547323B1 publication Critical patent/KR102547323B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B33ADDITIVE MANUFACTURING TECHNOLOGY
    • B33YADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
    • B33Y50/00Data acquisition or data processing for additive manufacturing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10008Still image; Photographic image from scanner, fax or copier

Abstract

본 발명의 일 실시예에 따른 3D 스캐닝을 통해 형성된 오브젝트의 세그멘테이션 장치는 메모리, 상기 메모리와 통신을 수행하는 적어도 하나의 프로세서 및 3D 스캔 기능을 수행하는 외부장치 및 사용자 단말과 통신을 수행하는 통신모듈을 포함하고, 상기 프로세서는, 상기 외부장치로부터 스캔의 대상인 스캔 오브젝트(Scan object) 및 상기 스캔 오브젝트의 질감을 나타내는 텍스쳐 이미지(Texture image)를 수신하고, 지도학습(Supervised-learning)을 통해 상기 텍스쳐 이미지에 기초하여 오브젝트의 원하는 부분을 나타내는 세그멘트(Segment)를 추출하고, 추출된 상기 세그멘트를 미리 결정한 특정 색상으로 마스킹(Masking)하고, 상기 스캔 오브젝트 및 마스킹된 상기 세그멘트를 포함하는 상기 텍스쳐 이미지에 기초하여 상기 오브젝트가 삼차원적으로 모델링된 3D모델링 데이터를 형성하고, 상기 3D모델링 데이터의 속성 값을 포함하는 매쉬데이터(Mesh data)에 기초하여 마스킹한 상기 특정 색상에 대한 속성 값과의 비교를 통해 상기 세그멘트에 대한 3D 데이터를 추출할 수 있다.An apparatus for segmenting an object formed through 3D scanning according to an embodiment of the present invention includes a memory, at least one processor communicating with the memory, an external device performing a 3D scanning function, and a communication module communicating with a user terminal. The processor receives a scan object, which is a scan object, and a texture image representing a texture of the scan object from the external device, and receives the texture through supervised-learning Based on the image, a segment representing a desired part of the object is extracted, the extracted segment is masked with a predetermined specific color, and the texture image including the scan object and the masked segment is extracted. 3D modeling data in which the object is three-dimensionally modeled is formed, and through comparison with attribute values for the specific color masked based on mesh data including attribute values of the 3D modeling data, the 3D data for segments can be extracted.

Description

3D 스캐닝을 통해 형성된 오브젝트의 세그멘테이션 장치 및 그 방법{OBJECT SEGMENTATION DEVICE AND METHOD FORMED THROUGH 3D SCANNING}Object segmentation device and method formed through 3D scanning {OBJECT SEGMENTATION DEVICE AND METHOD FORMED THROUGH 3D SCANNING}

본 발명은 오브젝트의 세그멘테이션 장치에 관한 것으로 보다 상세하게는 3D 스캐닝을 통해 형성된 오브젝트를 세그멘테이션 하는 방법과 관련된 발명이다.The present invention relates to an apparatus for segmenting an object, and more particularly, to a method for segmenting an object formed through 3D scanning.

최근 3D 프린팅 기술을 이용하여 다양한 형상물이 생성되고 있다. 특히, 네일 아트(Nail art) 분야와 관련하여, 네일 팁(Nail tip)의 인기가 증가되고 있는 추세이다.Recently, various shapes have been created using 3D printing technology. In particular, in relation to the field of nail art, the popularity of nail tips is increasing.

네일 팁을 수동으로 성형하고 절단하는 경우가 많은 종래의 방법과 달리, 3D 프린팅 기술을 이용하면 사용자 맞춤형 네일 팁을 제작할 수 있다.Unlike conventional methods in which nail tips are often manually molded and cut, 3D printing technology can be used to produce user-customized nail tips.

3D 스캐닝 공정은 물체의 표면 형상의 데이터 포인트를 캡처하여 디지털 모델을 생성한 후, 본 발명의 장치 및 방법에 의해 분석 및 처리된다. 3D 스캐닝 공정의 소프트웨어 알고리즘은 수학적 계산과 데이터 분석 기법을 사용하여 객체의 개별 세그먼트를 식별하고 분리하며, 필요에 따라 추가로 처리하거나 수정할 수 있다.The 3D scanning process captures data points of the surface shape of an object to create a digital model, which is then analyzed and processed by the apparatus and method of the present invention. Software algorithms in the 3D scanning process use mathematical calculations and data analysis techniques to identify and isolate individual segments of an object, which can be further processed or modified as needed.

기존에는 불규칙한 형상 또는 특징을 갖는 복잡한 객체에 대하여 수동 분할 기술을 통해서는 원하는 부분을 정확하게 취득하기 어려울 수 있다는 문제점이 존재하였다. 따라서 사용자가 원하는 영역을 정확하고 효율적으로 분할할 수 있는 능력이 필요하다는 요구가 존재하였다.Conventionally, there has been a problem in that it may be difficult to accurately acquire a desired part of a complex object having an irregular shape or feature through manual segmentation technology. Accordingly, there has been a demand for an ability to accurately and efficiently divide a region desired by a user.

즉, 사용자 맞춤형 네일 팁을 제작하기 위해, 3D 스캐닝을 통해 사람의 손톱 부분만을 명확하게 취득하기 위한 세그멘테이션 기술과 이렇게 취득한 사람의 손톱 부분에 대해 사용자 맞춤형 네일 팁 제작을 위한 3D 프린팅 기술이 요구되고 있다.That is, in order to manufacture a user-customized nail tip, a segmentation technology for clearly acquiring only the human fingernail portion through 3D scanning and a 3D printing technology for manufacturing a user-customized nail tip for the acquired human fingernail portion are required. .

등록특허 10-2259509 (2021.05.27.)Registered Patent No. 10-2259509 (2021.05.27.)

본 개시에 개시된 실시예는 3D 스캐닝, 인공지능 학습 및 3D 모델링을 통하여 오브젝트의 원하는 부분을 정확하게 세그멘테이션(Segmentation)할 수 있는 효과를 제공하는데 그 목적이 있다.An object of the embodiments disclosed in the present disclosure is to provide an effect capable of accurately segmenting a desired part of an object through 3D scanning, artificial intelligence learning, and 3D modeling.

본 개시에 개시된 실시예는 오브젝트에서 세그멘테이션 된 부분에 대한 데이터를 이용하여 3D 프린팅 기술을 통해 사용자 맞춤형 네일팁을 제공하는 효과를 제공하는데 그 목적이 있다.An object of the embodiment disclosed in the present disclosure is to provide an effect of providing a user-customized nail tip through 3D printing technology using data on a segmented portion of an object.

본 개시가 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present disclosure are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the description below.

상술한 기술적 과제를 달성하기 위한 본 개시에 일 측면에 따른 3D 스캐닝을 통해 형성된 오브젝트의 세그멘테이션 장치는,An apparatus for segmenting an object formed through 3D scanning according to an aspect of the present disclosure for achieving the above technical problem is,

메모리,Memory,

상기 메모리와 통신을 수행하는 적어도 하나의 프로세서 및at least one processor in communication with the memory; and

3D 스캔 기능을 수행하는 외부장치 및 사용자 단말과 통신을 수행하는 통신모듈을 포함하고,Including a communication module for communicating with an external device and a user terminal that performs a 3D scan function,

상기 프로세서는,the processor,

상기 외부장치로부터 스캔의 대상인 스캔 오브젝트(Scan object) 및 상기 스캔 오브젝트의 질감을 나타내는 텍스쳐 이미지(Texture image)를 수신하고,Receiving a scan object, which is a scan object, and a texture image representing a texture of the scan object from the external device;

지도학습(Supervised-learning)을 통해 상기 텍스쳐 이미지에 기초하여 오브젝트의 원하는 부분을 나타내는 세그멘트(Segment)를 추출하고,Extracting a segment representing a desired part of an object based on the texture image through supervised-learning,

추출된 상기 세그멘트를 미리 결정한 특정 색상으로 마스킹(Masking)하고,Masking the extracted segments with a predetermined specific color,

상기 스캔 오브젝트 및 마스킹된 상기 세그멘트를 포함하는 상기 텍스쳐 이미지에 기초하여 상기 오브젝트가 삼차원적으로 모델링된 3D모델링 데이터를 형성하고,Forming 3D modeling data in which the object is three-dimensionally modeled based on the texture image including the scan object and the masked segments;

상기 3D모델링 데이터의 속성 값을 포함하는 매쉬데이터(Mesh data)에 기초하여 마스킹한 상기 특정 색상에 대한 속성 값과의 비교를 통해 상기 세그멘트에 대한 3D 데이터를 추출할 수 있다.3D data for the segment may be extracted through comparison with attribute values of the specific color masked based on mesh data including attribute values of the 3D modeling data.

이 때, 상기 스캔 오브젝트의 질감은,At this time, the texture of the scan object,

적어도 하나의 상기 텍스쳐 이미지에 기초하여 상기 오브젝트의 포인트 클라우드를 구축함으로써 삼차원적으로 구현하는 것일 수 있다.It may be 3-dimensionally implemented by constructing a point cloud of the object based on at least one texture image.

또한, 상기 지도학습(Supervised learning)과 관련하여,In addition, in relation to the supervised learning,

세그멘테이션 할 부분이 포함된 오브젝트 데이터 및 상기 세그멘트 부분 데이터를 훈련데이터로 하여 라벨링(Labeling)하고,Labeling the object data including the part to be segmented and the segment part data as training data,

라벨링 된 상기 훈련데이터를 기초로 학습모델에 배치(Batch)가 이루어지고,Batch is made to the learning model based on the labeled training data,

사용자로부터 상기 텍스쳐 이미지를 입력받아 상기 세그멘트가 추출되면,When the texture image is input from the user and the segment is extracted,

미리 저장된 정답 데이터 세트(Ground truth set)를 기초로 상기 세그멘트의 추출에 대한 테스트 및 검증이 이루어지고,Based on a pre-stored ground truth set, testing and verification of the extraction of the segment is performed,

상기 테스트 및 검증에 기초하여 피드백 데이터를 생성하고,generate feedback data based on the testing and verification;

상기 피드백 데이터에 기초하여 상기 학습모델의 파라미터가 튜닝되어 상기 오브젝트에 대한 세그멘테이션의 지도학습(Supervised-learning)을 수행하는 것일 수 있다.Based on the feedback data, parameters of the learning model may be tuned to perform supervised-learning of the segmentation of the object.

또한, 상기 세그멘트에 대한 3D 데이터를 추출하는 것은,In addition, extracting 3D data for the segment,

상기 매쉬데이터에 상기 텍스쳐 이미지에 대한 색상정보를 버텍스 컬러값(Vertex color)으로 부여하고,Assigning color information for the texture image to the mesh data as a vertex color value,

상기 버텍스 컬러값에 기초하여 형성된 상기 매쉬데이터의 폴리곤 영역 각각에 대한 RGB값을 추출하고,Extracting RGB values for each polygon area of the mesh data formed based on the vertex color values;

상기 매쉬데이터의 폴리곤 영역 각각에 대한 RGB값과 마스킹한 상기 특정 색상에 대한 RGB값을 비교하고,Comparing RGB values for each polygon area of the mesh data with RGB values for the specific color masked,

상기 폴리곤 영역의 RGB값과 상기 특정 색상에 대한 RGB값이 일치하는 경우 RGB값이 일치하는 상기 폴리곤 영역을 추출함으로써 수행되는 것일 수 있다.When the RGB values of the polygon area match the RGB values of the specific color, it may be performed by extracting the polygon area with matching RGB values.

한편, 상술한 기술적 과제를 달성하기 위한 본 개시에 일 측면에 따른 3D 스캐닝을 통해 형성된 오브젝트의 세그멘테이션 장치에서,On the other hand, in the segmentation device of an object formed through 3D scanning according to one aspect of the present disclosure for achieving the above-described technical problem,

상기 마스킹하는 것은,The masking is

상기 오브젝트에서 상기 세그멘트에 관한 부분만을 제외한 영역이고,An area of the object excluding only the portion related to the segment,

상기 3D모델링 데이터는,The 3D modeling data,

상기 스캔 오브젝트 및 마스킹된 상기 세그멘트에 관한 부분을 제외한 영역을 포함하는 상기 텍스쳐 이미지에 기초하여 형성되고,It is formed based on the texture image including an area excluding the scan object and the masked portion related to the segment,

상기 세그멘트에 대한 3D 데이터를 추출하는 것은,Extracting 3D data for the segment,

상기 3D모델링 데이터의 속성 값을 포함하는 매쉬데이터에 기초하여 마스킹한 상기 특정 색상에 대한 속성 값과의 비교를 통해 상기 마스킹된 영역을 제외함으로써 수행되는 것일 수 있다.It may be performed by excluding the masked area through comparison with attribute values for the specific color masked based on mesh data including attribute values of the 3D modeling data.

한편, 본 발명에서 상기 스캔 오브젝트는 사람 손에 대한 데이터를 의미하고,Meanwhile, in the present invention, the scan object means data on a human hand,

상기 세그멘트는 상기 사람 손의 손톱부분에 대한 영역을 의미하는 것일 수 있다.The segment may refer to a region of a fingernail portion of the human hand.

한편, 본 발명에서 상기 3D모델링 데이터는,On the other hand, in the present invention, the 3D modeling data,

.stl, .fbx, .dae, .3ds, .abc, .usd 및 .obj 중 어느 하나의 확장자로 컴파일링 되어 상기 메모리에 저장되는 것일 수 있다.It may be compiled with one of .stl, .fbx, .dae, .3ds, .abc, .usd and .obj extensions and stored in the memory.

이 외에도, 본 개시를 구현하기 위한 실행하기 위한 컴퓨터 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램이 더 제공될 수 있다.In addition to this, a computer program stored in a computer readable recording medium for execution to implement the present disclosure may be further provided.

이 외에도, 본 개시를 구현하기 위한 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체가 더 제공될 수 있다.In addition to this, a computer readable recording medium recording a computer program for executing a method for implementing the present disclosure may be further provided.

본 개시의 전술한 과제 해결 수단에 의하면, 3D 스캐닝, 인공지능 학습 및 3D 모델링을 통하여 오브젝트의 원하는 부분을 정확하게 세그멘테이션(Segmentation)할 수 있는 효과를 제공한다.According to the above-described problem solving means of the present disclosure, an effect of accurately segmenting a desired part of an object through 3D scanning, artificial intelligence learning, and 3D modeling is provided.

본 개시의 전술한 과제 해결 수단에 의하면, 오브젝트에서 세그멘테이션 된 부분에 대한 데이터를 이용하여 3D 프린팅 기술을 통해 사용자 맞춤형 네일팁을 제공하는 효과를 제공한다.According to the above-described problem solving means of the present disclosure, an effect of providing a user-customized nail tip is provided through 3D printing technology using data on a segmented portion of an object.

본 개시의 전술한 과제 해결 수단에 의하면, 3D 프린팅 기술을 사용하여 네일 팁 제작에 높은 정확도와 일관성을 제공할 수 있는 효과를 제공한다.According to the above-mentioned problem solving means of the present disclosure, an effect capable of providing high accuracy and consistency in manufacturing a nail tip using 3D printing technology is provided.

본 개시의 전술한 과제 해결 수단에 의하면, 3D 프린팅 기술을 사용하여 네일 팁 제작 속도 및 효율성 측면에서 이점을 제공할 수 있고, 상당한 양의 수작업과 시간이 필요할 수 있는 전통적인 방법에 비해 생산 공정을 간소화하고 폐기물 발생량을 줄일 수 있는 효과를 제공한다.According to the above-mentioned problem solving means of the present disclosure, using 3D printing technology can provide advantages in terms of speed and efficiency of manufacturing nail tips, and simplifies the production process compared to traditional methods that may require a significant amount of manual work and time. and has the effect of reducing the amount of waste generated.

본 개시의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present disclosure are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1은 일 실시예에 따른 3D 스캐닝을 통해 형성된 오브젝트의 세그멘테이션 시스템을 개략적으로 나타낸 도면이다.
도 2는 일 실시예에 따른 3D 스캐닝을 통해 형성된 오브젝트의 세그멘테이션 장치의 구성요소를 개략적으로 나타낸 도면이다.
도 3은 일 실시예에 따른 3D 스캐닝을 통해 형성된 오브젝트를 세그멘테이션 하는 순서도를 나타낸 도면이다.
도 4a는 일 실시예에 따른 3D 스캔 기능을 수행하는 외부장치로부터 획득된 스캔 오브젝트를 개략적으로 나타낸 도면이다.
도 4b는 일 실시예에 따른 3D 스캔 기능을 수행하는 외부장치로부터 획득된 텍스쳐 이미지를 개략적으로 나타낸 도면이다.
도 5는 일 실시예에 따른 딥러닝 모델을 통해 오브젝트의 세그멘테이션 동작이 학습되는 것을 나타낸 도면이다.
도 6은 일 실시예에 따른 스캔 오브젝트 및 마스킹된 텍스쳐 이미지가 결합되어 3D모델링 데이터를 형성하는 것을 나타낸 도면이다.
도 7a 및 도7b는 일 실시예에 특정색상 추출 또는 제거 알고리즘으로부터 세그멘트가 추출되는 과정을 개략적으로 나타낸 도면이다.
도 8은 일 실시예에 따른 3D모델링 데이터에 대한 메시데이터의 구조를 개략적으로 나타낸 도면이다.
도 9는 일 실시예에 따른 추출된 손톱데이터를 이용하여 사용자 맞춤형 네일팁을 제작할 수 있다는 것을 나타내기 위한 도면이다.
1 is a diagram schematically illustrating a segmentation system of an object formed through 3D scanning according to an embodiment.
2 is a diagram schematically illustrating components of an apparatus for segmenting an object formed through 3D scanning according to an exemplary embodiment.
3 is a flowchart illustrating a segmentation of an object formed through 3D scanning according to an exemplary embodiment.
4A is a diagram schematically illustrating a scan object obtained from an external device performing a 3D scan function according to an exemplary embodiment.
4B is a diagram schematically illustrating a texture image obtained from an external device performing a 3D scan function according to an exemplary embodiment.
5 is a diagram illustrating that a segmentation operation of an object is learned through a deep learning model according to an embodiment.
6 is a diagram illustrating that 3D modeling data is formed by combining a scan object and a masked texture image according to an exemplary embodiment.
7A and 7B are diagrams schematically illustrating a process of extracting a segment from a specific color extraction or removal algorithm according to an embodiment.
8 is a diagram schematically showing the structure of mesh data for 3D modeling data according to an embodiment.
9 is a diagram illustrating that a user-customized nail tip can be manufactured using extracted nail data according to an embodiment.

본 개시 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 개시가 실시예들의 모든 요소들을 설명하는 것은 아니며, 본 개시가 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는 '부, 모듈, 부재, 블록'이라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예들에 따라 복수의 '부, 모듈, 부재, 블록'이 하나의 구성요소로 구현되거나, 하나의 '부, 모듈, 부재, 블록'이 복수의 구성요소들을 포함하는 것도 가능하다. 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 간접적으로 연결되어 있는 경우를 포함하고, 간접적인 연결은 무선 통신망을 통해 연결되는 것을 포함한다.Like reference numbers designate like elements throughout this disclosure. The present disclosure does not describe all elements of the embodiments, and general content or overlapping content between the embodiments in the technical field to which the present disclosure belongs is omitted. The term 'unit, module, member, or block' used in the specification may be implemented as software or hardware, and according to embodiments, a plurality of 'units, modules, members, or blocks' may be implemented as one component, It is also possible that one 'part, module, member, block' includes a plurality of components. Throughout the specification, when a part is said to be "connected" to another part, this includes not only the case of being directly connected but also the case of being indirectly connected, and indirect connection includes being connected through a wireless communication network. do.

또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In addition, when a certain component is said to "include", this means that it may further include other components without excluding other components unless otherwise stated.

명세서 전체에서, 어떤 부재가 다른 부재 "상에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.Throughout the specification, when a member is said to be located “on” another member, this includes not only a case where a member is in contact with another member, but also a case where another member exists between the two members.

제 1, 제 2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 전술된 용어들에 의해 제한되는 것은 아니다. Terms such as first and second are used to distinguish one component from another, and the components are not limited by the aforementioned terms.

단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함한다.Expressions in the singular number include plural expressions unless the context clearly dictates otherwise.

각 단계들에 있어 식별부호는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다. In each step, the identification code is used for convenience of description, and the identification code does not explain the order of each step, and each step may be performed in a different order from the specified order unless a specific order is clearly described in context. there is.

이하 첨부된 도면들을 참고하여 본 개시의 작용 원리 및 실시예들에 대해 설명한다.Hereinafter, the working principle and embodiments of the present disclosure will be described with reference to the accompanying drawings.

도 1은 일 실시예에 따른 3D 스캐닝을 통해 형성된 오브젝트의 세그멘테이션 시스템을 개략적으로 나타낸 도면이다.1 is a diagram schematically illustrating a segmentation system of an object formed through 3D scanning according to an embodiment.

도 1을 참고하면, 3D 스캐닝을 통해 형성된 오브젝트의 세그멘테이션 시스템은 본 발명의 동작을 수행하기 위해서는 3D 스캐닝을 통해 형성된 오브젝트의 세그멘테이션 장치(100), 3D스캔 기능을 수행하는 외부장치(200) 및 사용자 단말(300)에 의해 구성될 수 있다.Referring to FIG. 1, the segmentation system of an object formed through 3D scanning includes an object segmentation device 100 formed through 3D scanning, an external device 200 performing a 3D scanning function, and a user in order to perform the operation of the present invention. It can be configured by the terminal 300.

도 1을 참고하면, 3D 스캐닝을 통해 형성된 오브젝트의 세그멘테이션 장치(100)는 3D스캔 기능을 수행하는 외부장치(200) 및 사용자 단말(300)과 통신을 수행할 수 있다.Referring to FIG. 1 , an apparatus 100 for segmenting an object formed through 3D scanning may communicate with an external device 200 performing a 3D scanning function and a user terminal 300 .

본 명세서에서 '본 개시에 따른 3D 스캐닝을 통해 형성된 오브젝트의 세그멘테이션 장치(100)'는 연산처리를 수행하여 사용자에게 결과를 제공할 수 있는 다양한 장치들이 모두 포함된다. 예를 들어, 본 개시에 따른 3D 스캐닝을 통해 형성된 오브젝트의 세그멘테이션 장치(100)는, 컴퓨터, 서버 장치 및 휴대용 단말기를 모두 포함하거나, 또는 어느 하나의 형태가 될 수 있다.In this specification, the 'device 100 for segmenting an object formed through 3D scanning according to the present disclosure' includes various devices capable of providing results to users by performing calculation processing. For example, the apparatus 100 for segmenting an object formed through 3D scanning according to the present disclosure may include a computer, a server device, and a portable terminal, or may be in any one form.

상기 장치(서버)(100)는 외부 장치(200) 및 사용자 단말(300)과 통신을 수행하여 정보를 처리하는 서버로써, 애플리케이션 서버, 컴퓨팅 서버, 데이터베이스 서버, 파일 서버, 게임 서버, 메일 서버, 프록시 서버 및 웹 서버 등을 포함할 수 있다.The device (server) 100 is a server that processes information by communicating with the external device 200 and the user terminal 300, and includes an application server, a computing server, a database server, a file server, a game server, a mail server, May include proxy servers and web servers.

본 명세서에서 3D스캔 기능을 수행하는 외부장치(200)는 3D 스캐너를 포함하여, 3스캔 기능을 수행하는 외부장치(입력장치) 일체 중 어느 하나의 형태가 될 수 있다.In this specification, the external device 200 that performs the 3D scan function may be any one of all external devices (input devices) that perform the 3-scan function, including a 3D scanner.

3D 스캔 기능을 수행하는 외부장치(200)와 같은 입력장치는, 영상 정보(또는 신호), 오디오 정보(또는 신호), 데이터, 또는 사용자로부터 입력되는 정보의 입력을 위한 것으로서, 적어도 하나의 카메라, 적어도 하나의 마이크로폰 및 사용자 입력부 중 적어도 하나를 포함할 수 있다. 3D 스캔 기능을 수행하는 외부장치(200)에서 이미지 데이터는 분석되어 사용자의 제어명령으로 처리될 수 있다.An input device such as the external device 200 performing a 3D scan function is for inputting image information (or signals), audio information (or signals), data, or information input from a user, and includes at least one camera, It may include at least one of at least one microphone and a user input unit. In the external device 200 performing the 3D scan function, image data may be analyzed and processed as a user's control command.

카메라는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부에 표시되거나 메모리에 저장될 수 있다. A camera processes an image frame such as a still image or a moving image obtained by an image sensor in a photographing mode. The processed image frame may be displayed on a display unit or stored in a memory.

한편, 상기 카메라가 복수개일 경우, 매트릭스 구조를 이루도록 배치될 수 있으며, 이와 같이 매트릭스 구조를 이루는 카메라들을 통해 다양한 각도 또는 초점을 갖는 복수의 영상정보가 입력될 수 있고, 또한 상기 카메라들은 3차원의 입체영상을 구현하기 위한 좌 영상 및 우 영상을 획득하도록, 스트레오 구조로 배치될 수도 있다.On the other hand, when there are a plurality of cameras, they can be arranged to form a matrix structure, and a plurality of image information having various angles or focal points can be input through the cameras forming the matrix structure, and the cameras form a three-dimensional image. It may be arranged in a stereo structure so as to obtain left and right images for realizing a stereoscopic image.

한편, 3D 스캐너는 물체의 모양, 질감, 색을 포착하여 그것의 3차원 디지털 모델을 만드는 장치를 의미할 수 있다. 3D 스캐너는 스캐너의 센서에 반사되어 물체에 빛이나 레이저를 방출함으로써 작동될 수 있다. 3D 스캐너의 센서는 피사체까지 빛이 되돌아오는 데 걸리는 시간을 기록하고 물체(피사체) 표면까지의 거리를 계산할 수 있다. 스캐너는 다른 각도에서 물체를 스캔하여 물체의 모양을 나타내는 데이터의 포인트 클라우드를 구축할 수 있다.Meanwhile, a 3D scanner may refer to a device that captures the shape, texture, and color of an object and creates a three-dimensional digital model thereof. 3D scanners can work by emitting light or lasers at objects that are reflected off the scanner's sensors. The 3D scanner's sensor records the time it takes for light to return to the subject and can calculate the distance to the object's surface. A scanner can scan an object from different angles to build a point cloud of data representing the shape of the object.

한편 3D 스캐너가 포인트 클라우드를 수집한 후에는 소프트웨어를 사용하여 데이터를 처리하고 3D 모델링을 통해 3D 모델을 제작할 수 있다. 소프트웨어는 또한 텍스처와 색상 정보를 모델에 적용하여 객체를 진정으로 표현할 수 있다. 결과적으로 나온 디지털 모델은 3D 프린팅, 리버스 엔지니어링 또는 가상 현실과 같은 다양한 목적으로 사용될 수 있다.Meanwhile, after the 3D scanner has collected the point cloud, software can be used to process the data and create a 3D model through 3D modeling. The software can also apply texture and color information to the model to provide a true representation of the object. The resulting digital models can be used for a variety of purposes, such as 3D printing, reverse engineering or virtual reality.

3D 스캐너는 휴대용 스캐너, 데스크톱 스캐너 및 구조화된 조명 스캐너를 포함하여 다양한 유형의 3D 스캐너를 포함할 수 있다. 각 유형에는 고유한 장점과 한계가 있으며 3D 스캐너의 선택은 사용자의 특정 응용프로그램과 요구사항에 따라 달라질 수 있다.3D scanners may include various types of 3D scanners, including handheld scanners, desktop scanners, and structured light scanners. Each type has its own strengths and limitations, and your choice of 3D scanner may depend on your specific application and requirements.

3D스캔 기능을 수행하는 외부장치(200)의 센싱부는 외부장치(200)내의 정보, 외부장치(200)를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하고, 이에 대응하는 센싱 신호를 발생시키고, 상기 센싱 신호에 관한 정보를 본 장치(100)에 송신할 수 있다. 본 장치(100)의 제어부는 이러한 센싱 신호에 기초하여, 3D스캔 기능을 수행하는 외부장치(200)로부터 수신한 데이터를 이용하여 본 장치(100)에 설치된 응용 프로그램과 관련된 데이터 처리, 기능 또는 동작을 수행할 수 있다.The sensing unit of the external device 200 performing the 3D scan function senses at least one of information in the external device 200, surrounding environment information surrounding the external device 200, and user information, and generates a sensing signal corresponding thereto, , information on the sensing signal may be transmitted to the apparatus 100. Based on these sensing signals, the controller of the device 100 uses data received from the external device 200 that performs the 3D scan function to process data, functions, or operations related to the application program installed in the device 100. can be performed.

뿐만 아니라, 3D스캔 기능을 수행하는 외부장치(200)는 자체적인 통신모듈에 따라 사용자 단말(300)과 유선통신 및/또는 무선통신을 통하여 직접적으로 통신을 할 수도 있다.In addition, the external device 200 performing the 3D scan function may directly communicate with the user terminal 300 through wired communication and/or wireless communication according to its own communication module.

상기와 같은, 외부장치(200)의 센싱부는 근접센서(proximity sensor), 조도 센서(illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라), 마이크로폰, 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 중 적어도 하나를 포함함), 화학 센서(예를 들어, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 장치(100)는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 수신하고, 이를 조합하여 활용할 수 있다.As described above, the sensing unit of the external device 200 includes a proximity sensor, an illumination sensor, a touch sensor, an acceleration sensor, a magnetic sensor, and a gravity sensor ( G-sensor), gyroscope sensor, motion sensor, RGB sensor, infrared sensor, finger scan sensor, ultrasonic sensor, optical sensor Sensor (optical sensor (eg, camera), microphone, environmental sensor (eg, including at least one of a barometer, hygrometer, thermometer, radiation detection sensor, heat detection sensor, gas detection sensor), chemical sensor (eg For example, at least one of a healthcare sensor, a biometric sensor, and the like). Meanwhile, the device 100 may receive information sensed by at least two or more of these sensors, and may combine and utilize them.

또한, 사용자 단말(300)은 컴퓨터 및 휴대용 사용자 단말을 모두 포함하거나, 어느 하나의 형태가 될 수 있다.In addition, the user terminal 300 may include both a computer and a portable user terminal, or may be of any one type.

여기에서, 상기 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop), 태블릿 PC, 슬레이트 PC 등을 포함할 수 있다.Here, the computer may include, for example, a laptop computer, a desktop computer, a laptop computer, a tablet PC, a slate PC, and the like equipped with a web browser.

상기 휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), WiBro(Wireless Broadband Internet) 단말, 스마트 폰(Smart Phone) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치와 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD) 등과 같은 웨어러블 장치를 포함할 수 있다.The portable terminal is, for example, a wireless communication device that ensures portability and mobility, and includes a Personal Communication System (PCS), a Global System for Mobile communications (GSM), a Personal Digital Cellular (PDC), a Personal Handyphone System (PHS), and a PDA. (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (W-Code Division Multiple Access), WiBro (Wireless Broadband Internet) terminal, smart phone ) and wearable devices such as watches, rings, bracelets, anklets, necklaces, glasses, contact lenses, or head-mounted-devices (HMDs). can include

도 2는 일 실시예에 따른 3D 스캐닝을 통해 형성된 오브젝트의 세그멘테이션 장치의 구성요소를 개략적으로 나타낸 도면이다.2 is a diagram schematically illustrating components of an apparatus for segmenting an object formed through 3D scanning according to an exemplary embodiment.

도 2를 참고하면, 본 개시에 따른 3D 스캐닝을 통해 형성된 오브젝트의 세그멘테이션 장치(100)는 메모리(110), 프로세서(120) 및 통신모듈(130)(또는 통신부) 등을 포함할 수 있다. Referring to FIG. 2 , an apparatus 100 for segmenting an object formed through 3D scanning according to the present disclosure may include a memory 110, a processor 120, and a communication module 130 (or communication unit).

도 2에 도시된 구성요소들은 본 개시에 따른 3D 스캐닝을 통해 형성된 오브젝트의 세그멘테이션 장치(100)를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 3D 스캐닝을 통해 형성된 오브젝트의 세그멘테이션 장치(100)는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다.The components shown in FIG. 2 are not essential in implementing the segmentation apparatus 100 of an object formed through 3D scanning according to the present disclosure, so that the segmentation apparatus 100 of an object formed through 3D scanning described herein may have more or fewer components than those listed above.

메모리(110)는 본 제어 장치(100)의 다양한 기능을 지원하는 데이터와, 프로세서(120)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 음악 파일, 정지영상, 동영상 등)을 저장할 있고, 본 제어 장치(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 본 제어 장치(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다.The memory 110 may store data supporting various functions of the present control device 100 and programs for operation of the processor 120, and input/output data (eg, music files, still images). , videos, etc.), and can store a plurality of application programs (application programs or applications) driven by the control device 100, data for operation of the control device 100, and commands. At least some of these application programs may be downloaded from an external server through wireless communication.

이러한, 메모리(110)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 메모리(110)는 본 장치(100)와는 분리되어 있으나, 유선 또는 무선으로 연결된 데이터베이스가 될 수도 있다.The memory 110 may be a flash memory type, a hard disk type, a solid state disk type, a silicon disk drive type, or a multimedia card micro type. micro type), card type memory (eg SD or XD memory, etc.), random access memory (RAM), static random access memory (SRAM), read-only memory (ROM), electrically erasable EEPROM (EEPROM) It may include a storage medium of at least one type of a programmable read-only memory (PROM), a programmable read-only memory (PROM), a magnetic memory, a magnetic disk, and an optical disk. In addition, the memory 110 is separated from the apparatus 100, but may be a database connected by wire or wirelessly.

본 제어 장치(100)의 제어부는 본 장치 내의 구성요소들의 동작을 제어하기 위한 알고리즘 또는 알고리즘을 재현한 프로그램에 대한 데이터를 저장하는 메모리(110), 및 메모리(110)와 통신을 수행하여 메모리에 저장된 데이터를 이용하여 전술한 동작을 수행하는 적어도 하나의 프로세서(120)로 구현될 수 있다. 이때, 메모리(110)와 프로세서(120)는 각각 별개의 칩으로 구현될 수 있다. 또는, 메모리(110)와 프로세서(120)는 단일 칩으로 구현될 수도 있다.The controller of the control device 100 stores data for an algorithm or a program that reproduces the algorithm for controlling the operation of the components in the device, and the memory 110 communicates with the memory 110 to store data in the memory. It may be implemented as at least one processor 120 that performs the above-described operation using stored data. In this case, the memory 110 and the processor 120 may be implemented as separate chips. Alternatively, the memory 110 and the processor 120 may be implemented as a single chip.

또한, 프로세서(120)는 이하의 도 3 내지 도 9에서 설명되는 본 개시에 따른 다양한 실시 예들을 본 장치(100) 상에서 구현하기 위하여, 위에서 살펴본 구성요소들을 중 어느 하나 또는 복수를 조합하여 제어할 수 있다.In addition, the processor 120 may control any one or a combination of a plurality of the components described above in order to implement various embodiments according to the present disclosure described in FIGS. 3 to 9 below on the device 100. can

상기 구성요소들 중 통신모듈(130)은 3D스캔 기능을 수행하는 외부장치(200)및 상용자 단말(300)과 통신을 가능하게 하는 하나 이상의 구성 요소를 포함할 수 있으며, 예를 들어, 방송 수신 모듈, 유선통신 모듈, 무선통신 모듈, 근거리 통신 모듈, 위치정보 모듈 중 적어도 하나를 포함할 수 있다.Among the components, the communication module 130 may include one or more components enabling communication with the external device 200 performing the 3D scan function and the user terminal 300, for example, broadcasting It may include at least one of a receiving module, a wired communication module, a wireless communication module, a short-distance communication module, and a location information module.

본 장치(100)의 무선 통신 모듈은 와이파이(Wifi) 모듈, 와이브로(Wireless broadband) 모듈 외에도, GSM(global System for Mobile Communication), CDMA(Code Division Multiple Access), WCDMA(Wideband Code Division Multiple Access), UMTS(universal mobile telecommunications system), TDMA(Time Division Multiple Access), LTE(Long Term Evolution), 4G, 5G, 6G 등 다양한 무선 통신 방식을 지원하는 무선 통신 모듈을 포함할 수 있다.The wireless communication module of the present device 100 includes, in addition to a WiFi module and a wireless broadband module, GSM (global System for Mobile Communication), CDMA (Code Division Multiple Access), WCDMA (Wideband Code Division Multiple Access), It may include a wireless communication module supporting various wireless communication schemes such as universal mobile telecommunications system (UMTS), time division multiple access (TDMA), long term evolution (LTE), 4G, 5G, and 6G.

본 장치(100)의 무선 통신 모듈은 이동통신 신호를 송신하는 안테나 및 송신기(Transmitter)를 포함하는 무선 통신 인터페이스를 포함할 수 있다. 또한, 무선 통신 모듈은 프로세서(120)의 제어에 따라 무선 통신 인터페이스를 통해 제어부로부터 출력된 디지털 제어 신호를 아날로그 형태의 무선 신호로 변조하는 신호 변조 모듈을 더 포함할 수 있다. The wireless communication module of the present device 100 may include a wireless communication interface including an antenna and a transmitter for transmitting mobile communication signals. In addition, the wireless communication module may further include a signal modulation module that modulates the digital control signal output from the control unit through the wireless communication interface into an analog type wireless signal under the control of the processor 120 .

본 장치(100)의 무선 통신 모듈은 이동통신 신호를 수신하는 안테나 및 수신기(Receiver)를 포함하는 무선 통신 인터페이스를 포함할 수 있다. 또한, 무선 통신 모듈은 무선 통신 인터페이스를 통하여 수신한 아날로그 형태의 무선 신호를 디지털 제어 신호로 복조하기 위한 신호 복조 모듈을 더 포함할 수 있다. The wireless communication module of the device 100 may include a wireless communication interface including an antenna and a receiver for receiving mobile communication signals. In addition, the wireless communication module may further include a signal demodulation module for demodulating an analog type of wireless signal received through a wireless communication interface into a digital control signal.

본 장치(100)의 유선 통신 모듈은, 지역 통신(Local Area Network; LAN) 모듈, 광역 통신(Wide Area Network; WAN) 모듈 또는 부가가치 통신(Value Added Network; VAN) 모듈 등 다양한 유선 통신 모듈뿐만 아니라, USB(Universal Serial Bus), HDMI(High Definition Multimedia Interface), DVI(Digital Visual Interface), RS-232(recommended standard232), 전력선 통신, 또는 POTS(plain old telephone service) 등 다양한 케이블 통신 모듈을 포함할 수 있다.The wired communication module of the device 100 includes not only various wired communication modules such as a local area network (LAN) module, a wide area network (WAN) module, or a value added network (VAN) module. , Universal Serial Bus (USB), High Definition Multimedia Interface (HDMI), Digital Visual Interface (DVI), recommended standard 232 (RS-232), powerline communications, or plain old telephone service (POTS). can

도 2에 도시된 구성 요소들의 성능에 대응하여 적어도 하나의 구성요소가 추가되거나 삭제될 수 있다. 또한, 구성 요소들의 상호 위치는 시스템의 성능 또는 구조에 대응하여 변경될 수 있다는 것은 당해 기술 분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.At least one component may be added or deleted corresponding to the performance of the components shown in FIG. 2 . In addition, it will be easily understood by those skilled in the art that the mutual positions of the components may be changed corresponding to the performance or structure of the system.

한편, 도 2에서 도시된 각각의 구성요소는 소프트웨어 및/또는 Field Programmable Gate Array(FPGA) 및 주문형 반도체(ASIC, Application Specific Integrated Circuit)와 같은 하드웨어 구성요소를 의미할 수 있다.Meanwhile, each component shown in FIG. 2 may mean software and/or hardware components such as a Field Programmable Gate Array (FPGA) and an Application Specific Integrated Circuit (ASIC).

도 3은 일 실시예에 따른 3D 스캐닝을 통해 형성된 오브젝트를 세그멘테이션 하는 순서도를 나타낸 도면이다.3 is a flowchart illustrating a segmentation of an object formed through 3D scanning according to an exemplary embodiment.

도 3을 참고하면, S310은 3D 스캔 기능을 수행하는 외부장치로부터 스캔의 대상인 스캔 오브젝트(Scan object) 및 상기 스캔 오브젝트의 질감을 나타내는 텍스쳐 이미지(Texture image)를 수신하는 단계를 의미할 수 있다.Referring to FIG. 3 , S310 may refer to a step of receiving a scan object, which is a scan object, and a texture image representing a texture of the scan object from an external device performing a 3D scan function.

구체적으로, 본 장치(100)는 3D 스캔 기능을 수행하는 외부장치(200)인 3D 스캐너로부터 스캔의 대상을 의미하는 '스캔 오브젝트(Scan object)'에 대한 데이터를 수신할 수 있다.Specifically, the device 100 may receive data on a 'scan object', which means a target of scanning, from a 3D scanner, which is an external device 200 that performs a 3D scanning function.

또한, 본 장치(100)는 3D 스캔 기능을 수행하는 외부장치(200)인 3D 스캐너로부터 스캔 오브젝트의 질감(Texture)을 표현할 수 있는 이미지를 의미하는 '텍스쳐 이미지(Texutre image)'에 대한 데이터를 수신할 수 있다.In addition, the device 100 receives data for a 'texture image', which means an image capable of expressing the texture of a scanned object, from a 3D scanner, which is an external device 200 that performs a 3D scan function. can receive

3D 광학식 스캐너의 경우, 거리측정센서를 통해 피사체(객체, Object)와의 거리를 측정하는 기능 및 텍스쳐이미지 취득용 렌즈를 통해 피사체(스캔의 대상을 의미할 수 있다.)의 사진을 촬영하는 기능을 수행할 수 있다.In the case of a 3D optical scanner, the function of measuring the distance to a subject (object) through a distance measurement sensor and the function of taking a picture of a subject (which may mean a target of scanning) through a lens for acquiring a texture image can be done

따라서, 본 장치(100)는 통신모듈(130)을 통해 3D 스캔 기능을 수행하는 외부장치(200)인 3D 스캐너와 통신을 수행하여 스캔의 대상이자 피사체인 오브젝트의 형체를 나타내는 '스캔 오브젝트' 및 피사체의 질감을 나타내기 위한 '텍스쳐 이미지'를 수신할수 있다.Therefore, the device 100 communicates with the 3D scanner, which is the external device 200 that performs the 3D scan function, through the communication module 130 to perform a 'scan object' and A 'texture image' for representing the texture of a subject may be received.

S320은 지도학습(Supervised-learning)을 통해 텍스쳐 이미지에 기초하여 오브젝트의 원하는 부분을 나타내는 세그멘트(Segment)를 추출하는 단계를 의미할 수 있다.S320 may refer to a step of extracting a segment representing a desired part of an object based on a texture image through supervised learning.

구체적으로, 본 장치(100)는 인공지능학습 모듈을 통해 라벨링 데이터(Labeling data)를 학습데이터로 구축하여 원하는 데이터 취득을 위한 학습을 시킬 수 있다. Specifically, the present device 100 can build labeling data as learning data through an artificial intelligence learning module and learn to acquire desired data.

즉, 본 장치(100)는 인공지능학습 모듈을 통해 텍스쳐 이미지를 입력값으로 하고, 상기 텍스쳐 이미지에서 원하는 부분의 영역을 의미할 수 있는 '세그멘트(Segment)'를 출력 값으로하여 딥러닝(Deep learning)이 진행된 세그멘테이션(Segmentation)을 수행할 수 있다. 한편, 본 명세서에서 세그멘테이션(Segmentation)은 오브젝트(피사체)에서 사용자가 원하는 부분을 취득하는 것을 의미할 수 있다.That is, the apparatus 100 takes a texture image as an input value through an artificial intelligence learning module, and uses a 'segment', which can mean a region of a desired part in the texture image, as an output value to perform deep learning (Deep Learning). Segmentation with learning progressed can be performed. Meanwhile, in this specification, segmentation may mean acquiring a desired part of an object (subject) by a user.

본 장치(100)의 딥러닝 수행 과정에 대해서는 관해서는 이하 도 5에서 후술하도록 한다.A deep learning process of the apparatus 100 will be described later with reference to FIG. 5 .

S330은 추출된 상기 세그멘트를 미리 결정한 특정 색상으로 마스킹(Masking)하는 단계를 의미할 수 있다.S330 may mean a step of masking the extracted segments with a predetermined specific color.

구체적으로 S330은, 텍스쳐 이미지로부터 사용자가 원하는 부분인 세그멘트가 취득되면, 상기 세그멘트 영역을 사용자가 미리 결정한 특정한 색상의 RGB값으로 마스킹하는 단계를 의미할 수 있다.Specifically, S330 may refer to a step of masking the segment area with RGB values of a specific color previously determined by the user when a segment desired by the user is obtained from the texture image.

여기서 색상정보를 이용하는 방식으로 RGB값 뿐 아니라, cmyk, 핵사코드(#00000) 등의 색상표현 방식 중 어느 것을 택하여 수행할 수도 있다.Here, as a method using color information, it may be performed by selecting any one of color expression methods such as cmyk and hex code (#00000) as well as RGB values.

S330은, 후술하는 바와 같이 S350에서 3D모델링 데이터에서 세그멘트 부분만을 추출하기 위해 활용될 수 있는 단계로서, 사용자가 부여한 특정 색상의 RGB값을 메모리(110)에 저장하여 S350의 단계에서 이에 관한 데이터를 활용할 수 있다.S330, as will be described later, is a step that can be utilized to extract only the segment part from the 3D modeling data in S350, storing the RGB values of a specific color given by the user in the memory 110, and storing the related data in the step of S350. can be utilized

S340은 스캔 오브젝트 및 마스킹된 상기 세그멘트를 포함하는 텍스쳐 이미지에 기초하여 상기 오브젝트가 삼차원적으로 모델링된 3D모델링 데이터를 형성하는 단계를 의미할 수 있다.S340 may refer to a step of forming 3D modeling data in which the object is three-dimensionally modeled based on the texture image including the scanned object and the masked segments.

구체적으로, 본 장치(100)의 프로세서(120)는 스캔 오브젝트에 마스킹 과정이 수행된 세그멘트를 포함하는 텍스쳐 이미지를 결합하여 오브젝트(피사체)가 삼차원적으로 모델링된 데이터를 의미할 수 있는 '3D모델링 데이터'를 형성할 수 있다.Specifically, the processor 120 of the present device 100 combines a scan object with a texture image including a segment on which a masking process has been performed to perform '3D modeling', which may mean data in which an object (subject) is three-dimensionally modeled. data can be formed.

S350은 3D모델링 데이터의 속성 값을 포함하는 매쉬데이터(Mesh data)에 기초하여 마스킹한 특정 색상에 대한 속성 값과의 비교를 통해 세그멘트에 대한 3D 데이터를 추출하는 단계를 의미할 수 있다. 여기서, 3D 모델링 데이터의 속성 값을 포함하는 메쉬데이터는 텍스쳐 이미지의 속성값을 가지는 3D 모델링 데이터의 속성 값을 포함하는 것일 수 있다.S350 may refer to a step of extracting 3D data for a segment through comparison with attribute values of a specific color masked based on mesh data including attribute values of 3D modeling data. Here, the mesh data including attribute values of 3D modeling data may include attribute values of 3D modeling data having attribute values of a texture image.

구체적으로, 3D모델링 데이터는 그 데이터의 고유 속성값을 포함하는 매쉬데이터(Mesh data)를 가질 수 있다. 이 때, 상기 3D모델링 데이터의 매쉬데이터에 포함된 색상 정보와 사용자가 S330단계에서 세그멘트에 마스킹 시 부여한 특정 색상에 대한 색상정보를 비교하여 3D모델링 데이터로부터 사용자가 원하는 영역인 세그멘트의 3D 데이터를 추출할 수 있다. 이에 관해서는 후술하는 바와 같이 도 7a 및 도 7b에서 자세히 설명하도록 한다.Specifically, the 3D modeling data may have mesh data including unique attribute values of the data. At this time, the color information included in the mesh data of the 3D modeling data and the color information for a specific color given by the user when masking to the segment in step S330 are compared to extract the 3D data of the segment, which is the area desired by the user, from the 3D modeling data can do. This will be described in detail with reference to FIGS. 7A and 7B as will be described later.

한편, S310 내지 S350과 관련하여, 본 발명의 일 실시예에 따르면 마스킹하는 것은 오브젝트에서 상기 세그멘트 부분만을 제외한 영역이고, 3D모델링 데이터는 스캔 오브젝트 및 마스킹된 상기 세그멘트 부분을 제외한 영역을 포함하는 텍스쳐 이미지에 기초하여 형성되고, 세그멘트에 대한 3D 데이터를 추출하는 것은 3D모델링 데이터의 속성 값을 포함하는 매쉬데이터에 기초하여 마스킹한 상기 특정 색상에 대한 속성 값과의 비교를 통해 상기 마스킹된 영역을 제외함으로써 수행될 수도 있다.Meanwhile, in relation to S310 to S350, according to an embodiment of the present invention, masking is a region excluding only the segment portion from an object, and 3D modeling data is a texture image including a scan object and an area excluding the masked segment portion. Formed based on, extracting the 3D data for the segment is by excluding the masked area through comparison with the attribute value for the specific color masked based on the mesh data including the attribute value of the 3D modeling data. may be performed.

도 4a는 일 실시예에 따른 3D 스캔 기능을 수행하는 외부장치로부터 획득된 스캔 오브젝트를 개략적으로 나타낸 도면이다. 4A is a diagram schematically illustrating a scan object obtained from an external device performing a 3D scan function according to an exemplary embodiment.

3D스캔 기능을 수행하는 외부장치(200)로서 3D 광학식 스캐너의 경우, 거리측정센서를 통해 피사체(객체, Object)와의 거리를 측정하는 기능 및 텍스쳐이미지 취득용 렌즈를 통해 피사체(스캔의 대상을 의미할 수 있다.)의 사진을 촬영하는 기능을 수행할 수 있다.In the case of a 3D optical scanner as an external device 200 that performs a 3D scan function, a function for measuring the distance to a subject (object) through a distance measuring sensor and a subject (meaning the target of scanning) through a lens for acquiring a texture image can perform the function of taking a picture of).

도 4a를 참고하면, 본 발명의 일 실시에에 따라 오브젝트가 '사람의 손'인 경우를 나타내는 것일 수 있다.Referring to FIG. 4A , according to an embodiment of the present invention, an object may represent a case of a 'human hand'.

즉, 3D 광학식 스캐너는 자체적으로 거리측정센서를 구비하여 빛이나 레이저를 방출함으로써 오브젝트까지 빛이 되돌아오는 데 걸리는 시간을 기록하고, 오브젝트인 '사람의 손' 표면까지의 거리를 계산할 수 있다.That is, the 3D optical scanner itself has a distance measurement sensor, emits light or laser, records the time it takes for the light to return to the object, and calculates the distance to the surface of the 'human hand', which is the object.

이와 같이 오브젝트인 '사람의 손' 표면까지의 거리가 측정되면, 거리데이터에 기초하여 3D스캔 기능을 수행하여 오브젝트(사람의 손)의 형체(D410)를 형상화할 수 있다.In this way, when the distance to the surface of the object 'human hand' is measured, the shape D410 of the object (human hand) may be formed by performing a 3D scan function based on the distance data.

도 4b는 일 실시예에 따른 3D 스캔 기능을 수행하는 외부장치로부터 획득된 텍스쳐 이미지를 개략적으로 나타낸 도면이다.4B is a diagram schematically illustrating a texture image obtained from an external device performing a 3D scan function according to an exemplary embodiment.

3D스캔 기능을 수행하는 외부장치(200)로서 3D 광학식 스캐너의 경우, 다양한 각도에서 물체를 스캔하여 물체의 모양을 나타내는 데이터의 포인트 클라우드(3차원 공간에 속한 데이터 점들의 집합을 의미할 수 있다.)를 구축함으로써 오브젝트의 질감을 표현할 수 있다.In the case of a 3D optical scanner as an external device 200 that performs a 3D scan function, a point cloud of data representing the shape of an object by scanning an object from various angles (meaning a set of data points belonging to a 3D space). ) to express the texture of the object.

도 4b를 참고하면, 본 발명의 일 실시에에 따라 오브젝트가 '사람의 손'인 경우를 나타내는 것일 수 있다.Referring to FIG. 4B , according to an embodiment of the present invention, an object may represent a case of 'a person's hand'.

오브젝트인 '사람의 손'의 질감을 나타내기 위해 3D스캔 기능을 수행하는 외부장치(200)는 다양한 각도에서 오브젝트 데이터의 포인트 클라우드를 구축할 수 있다.The external device 200 that performs the 3D scan function to represent the texture of the 'human hand', which is an object, may build a point cloud of object data from various angles.

즉, 광학식 3D 스캐너는 자체적으로 구비한 텍스쳐이미지 취득용 렌즈를 통해 다양한 각도에서 '사람의 손'의 사진을 촬영하는 기능을 수행함으로써 포인트 클라우드를 구축할 수 있다.That is, the optical 3D scanner can build a point cloud by performing a function of taking photos of 'human hands' from various angles through its own lens for acquiring texture images.

예를 들어, 도4b를 참고하면 오브젝트인 '사람의 손'의 질감을 표현하기 위해 텍스쳐이미지 취득용 렌즈로부터 복수의 텍스쳐 이미지(D420)로서 제1 각도에서 촬영한 제1 텍스쳐 이미지(D421), 제2 각도에서 촬영한 제2 텍스쳐 이미지(D422), 제3 각도에서 촬영한 제3 텍스쳐 이미지(D423), 제4 각도에서 촬영한 제4 텍스쳐 이미지(D424) 및 제5 각도에서 촬영한 제5 텍스쳐 이미지(D425)를 획득할 수 있다.For example, referring to FIG. 4B , a first texture image D421 photographed at a first angle as a plurality of texture images D420 from a lens for acquiring a texture image in order to express the texture of a 'human hand', which is an object, A second texture image D422 taken from a second angle, a third texture image D423 taken from a third angle, a fourth texture image D424 taken from a fourth angle, and a fifth taken from a fifth angle. A texture image D425 may be acquired.

상기 D421 내지 D425와 같은 복수의 텍스쳐 이미지 데이터가 스캔 오브젝트 데이터에 결합됨으로써 3D모델링 데이터를 형성할 수 있다. 여기서 텍스쳐 이미지의 개수는 D421 내지 D425와 같이 5개 뿐 아니라, 적어도 하나의 텍스쳐 이미지 개수가 될 수 있다.3D modeling data may be formed by combining a plurality of texture image data such as D421 to D425 with scan object data. Here, the number of texture images may be at least one, as well as five as in D421 to D425.

도 5는 일 실시예에 따른 딥러닝 모델을 통해 오브젝트의 세그멘테이션 동작이 학습되는 것을 나타낸 도면이다.5 is a diagram illustrating that a segmentation operation of an object is learned through a deep learning model according to an embodiment.

도 5를 참고하면, 훈련데이터는 세그멘테이션 할 부분이 포함된 오브젝트 데이터 및 상기 세그멘트 부분에 관한 데이터일 수 있다.Referring to FIG. 5 , training data may be object data including a portion to be segmented and data related to the segmented portion.

도 5를 참고하면, 학습모델은 상기 세그멘테이션 할 부분이 포함된 오브젝트 데이터 및 상기 세그멘트 부분 데이터를 라벨링(Labeling)하여 지도학습(Supervised-learning)을 수행할 수 있다(S510).Referring to FIG. 5 , the learning model may perform supervised-learning by labeling the object data including the portion to be segmented and the segment portion data (S510).

상기 학습모델은, 딥 러닝 기반으로 학습된 인공지능 모델을 의미할 수 있으며, 일 예로, CNN(Convolutional Neural Network)을 이용하여 학습된 모델을 의미할 수 있다. 다만, 상기 학습모델에 제한되지 않으며, Natural Language Processing(NLP), Random Forest (RF), Support Vector Machine (SVC), eXtra Gradient Boost (XGB), Decision Tree (DC), Knearest Neighbors (KNN), Gaussian Naive Bayes (GNB), Stochastic Gradient Descent (SGD), Linear Discriminant Analysis (LDA), Ridge, Lasso 및 Elastic net 중 적어도 하나의 알고리즘을 포함할 수 있다.The learning model may mean an artificial intelligence model learned based on deep learning, and for example, may mean a model learned using a convolutional neural network (CNN). However, it is not limited to the above learning model, Natural Language Processing (NLP), Random Forest (RF), Support Vector Machine (SVC), eXtra Gradient Boost (XGB), Decision Tree (DC), Knearest Neighbors (KNN), Gaussian At least one algorithm of Naive Bayes (GNB), Stochastic Gradient Descent (SGD), Linear Discriminant Analysis (LDA), Ridge, Lasso, and Elastic net may be included.

도 5를 참고하면, 학습모델에서 머신러닝 알고리즘에 따라 훈련데이터 셋의 학습이 이루어지면, 이에 대한 배치(Batch)가 이루어질 수 있다(S520).Referring to FIG. 5 , when the training data set is learned according to the machine learning algorithm in the learning model, a batch may be made (S520).

이후 인공지능 모듈에 사용자로부터 복수의 텍스쳐 이미지(D510)가 입력되면(S530) 인공지능 모듈에 전달받은 학습데이터를 기초로 오브젝트에 대한 세그멘테이션이 이루어져 세그멘트를 출력할 수 있다(S540).Subsequently, when a plurality of texture images D510 are input from the user to the artificial intelligence module (S530), object segmentation is performed based on the learning data transmitted to the artificial intelligence module, and the segments can be output (S540).

출력된 세그멘트에 관한 데이터는 미리 저장된 정답 데이터 세트(Ground truth set)와 비교를 통해 테스트 및 검증이 이루어지고, 본 장치(100)는 테스트 및 검증에 기초하여 피드백 정보를 형성할 수 있다(S550).Data on the output segment is tested and verified through comparison with a pre-stored ground truth set, and the apparatus 100 may form feedback information based on the test and verification (S550). .

인공지능 학습 모듈은 피드백 정보에 기초하여 학습모델의 파라미터를 변경 또는 튜닝할 수 있다(S570).The artificial intelligence learning module may change or tune parameters of the learning model based on the feedback information (S570).

여기서 파라미터는 학습 모델에 포함된 각 레이어의 가중치(Weight) 및/또는 편향(Bias) 중 적어도 하나를 의미할 수 있다.Here, the parameter may mean at least one of weight and/or bias of each layer included in the learning model.

지도 학습(Supervised learning)은 입력과 출력 사이의 매핑을 학습하는 것이며, 입력과 출력 쌍이 데이터로 주어지는 경우에 적용한다. 예를 들어 컴퓨터가 주차장 입구에서 자동차 번호판을 인식할 때 번호판이 오염된 경우 제대로 인식하지 못할 수 있다. 이 경우 다양하게 오염된 번호판 사례와 정상 번호판을 각각 입력과 출력 쌍으로 학습시켜 번호판 인식률을 높일 수 있다.Supervised learning is to learn the mapping between inputs and outputs, and is applied when input and output pairs are given as data. For example, when a computer recognizes a license plate at a parking lot entrance, it may not recognize it correctly if the license plate is dirty. In this case, it is possible to increase the license plate recognition rate by learning various contaminated license plate cases and normal license plates as input and output pairs, respectively.

한편, 도 6을 참고하면, 추출된 세그멘트 또는 세그멘트를 제외한 영역에 대해서는 마스킹(Masking)이 수행될 수 있다(S560).Meanwhile, referring to FIG. 6 , masking may be performed on the extracted segment or a region excluding the segment (S560).

즉, 텍스쳐 이미지를 입력하여 사용자가 원하는 영역인 세그멘트가 추출되면, 상기 세그멘트 부분에 대해 사용자가 미리 결정한 특정 색상으로 마스킹을 할 수 있다(D521).That is, when a segment, which is an area desired by a user, is extracted by inputting a texture image, the segment may be masked with a specific color previously determined by the user (D521).

또한, 텍스쳐 이미지를 입력하여 사용자가 원하는 영역인 세그멘트가 추출되면, 상기 세그멘트을 제외한 나머지 부분에 대해 사용자가 미리 결정한 특정 색상으로 마스킹을 할 수도 있다(D522).In addition, when a segment, which is an area desired by the user, is extracted by inputting a texture image, the remaining area other than the segment may be masked with a specific color previously determined by the user (D522).

도 6은 일 실시예에 따른 스캔 오브젝트 및 마스킹된 텍스쳐 이미지가 결합되어 3D모델링 데이터를 형성하는 것을 나타낸 도면이다.6 is a diagram illustrating that 3D modeling data is formed by combining a scan object and a masked texture image according to an exemplary embodiment.

도 6을 참고하면, 프로세서(120)는 스캔 오브젝트와 추출된 세그멘트에 마스킹이 수행된 복수의 텍스쳐 이미지를 결합하여 3D모델링 데이터를 형성할 수 있다.Referring to FIG. 6 , the processor 120 may form 3D modeling data by combining a scan object and a plurality of texture images in which masking is performed on an extracted segment.

또한, 프로세서(120)는 스캔 오브젝트와 추출된 세그멘트를 제외한 영역에 마스킹이 수행된 복수의 텍스쳐 이미지를 결합하여 3D모델링 데이터를 형성할 수도 있다.In addition, the processor 120 may form 3D modeling data by combining a plurality of texture images on which masking is performed on areas other than the scan object and the extracted segment.

이 때, 3D모델링 3D모델링 파일의 저장형식인 .fbx, .dae, .3ds, .abc, .usd 및 .obj 중 어느 하나의 확장자로 컴파일링 되어 메모리(110)에 저장될 수 있다.At this time, the 3D modeling file may be compiled in one of the .fbx, .dae, .3ds, .abc, .usd and .obj extensions, which are the storage formats of the 3D modeling file, and stored in the memory 110.

즉, 3D모델링 데이터는 스캔 오브젝트에 관한 데이터에 포함된 매쉬데이터, 오브젝트의 질감을 나타내는 텍스쳐 이미지 및 3D 오브젝트 데이터가 컴파일링된 MTL파일에 관한 정보를 포함할 수 있다. That is, the 3D modeling data may include information about the mesh data included in the data about the scan object, the texture image representing the texture of the object, and the MTL file in which the 3D object data is compiled.

도 7a 및 도 7b는 일 실시예에 특정색상 추출 또는 제거 알고리즘으로부터 세그멘트가 추출되는 과정을 개략적으로 나타낸 도면이다.7A and 7B are diagrams schematically illustrating a process of extracting a segment from a specific color extraction or removal algorithm according to an exemplary embodiment.

도 7a를 참고하면, 스캔 오브젝트와 추출된 세그멘트를 제외한 영역에 마스킹이 수행된 복수의 텍스쳐 이미지를 결합하여 형성된 3D모델링 데이터(D710)로부터 사용자가 미리 결정하여 세그멘트에 부여한 특정 색상에 대한 추출 또는 제거 알고리즘(S700)을 이용하여 사용자가 원하는 부분에 대한 영역인 세그멘트(D720)를 추출할 수 있다.Referring to FIG. 7A , from 3D modeling data D710 formed by combining a plurality of masked texture images in an area other than a scan object and an extracted segment, extraction or removal of a specific color previously determined by a user and assigned to a segment A segment D720 corresponding to a portion desired by the user may be extracted using the algorithm S700.

도 7b를 참고하면, 오브젝트(Object)에 대해 세그멘테이션(Segmentation)을 진행하여 세그멘트에 대한 3D 데이터를 추출하는 것은, 매쉬데이터에 텍스쳐 이미지에 대한 색상정보를 버텍스 컬러값(Vertex color)으로 부여(S710)하고, 버텍스 컬러값에 기초하여 형성된 매쉬데이터의 폴리곤 영역 각각에 대한 RGB값을 추출(S720)하고, 매쉬데이터의 폴리곤 영역 각각에 대한 RGB값과 마스킹한 특정 색상에 대한 RGB값을 비교(S730)하고, 폴리곤 영역의 RGB값과 특정 색상에 대한 RGB값이 일치하는 경우 RGB값이 일치하는 폴리곤 영역을 추출(S740)함으로써 수행될 수 있다.Referring to FIG. 7B, extracting 3D data for a segment by performing segmentation on an object gives color information for a texture image as a vertex color to mesh data (S710 ), and extracts RGB values for each polygon area of the mesh data formed based on the vertex color values (S720), and compares the RGB values for each polygon area of the mesh data with the RGB values for the masked specific color (S730 ), and when the RGB values of the polygon area and the RGB values for a specific color match, extracting the polygon area with matching RGB values (S740).

예를 들어, '사람의 손'이라는 오브젝트에 대하여, 사용자가 원하는 영역인 '손톱' 부분을 세그멘테이션 하여 세그멘트에 대한 3D 데이터를 추출하기 위해서는, '사람의 손'의 스캔 오브젝트 데이터에 포함된 매쉬데이터(Mesh data)에 텍스쳐 이미지에 대한 정보를 입혀 색상정보를 부여할 수 있다. 이 때, 메쉬데이터는 다중 폴리곤 영역으로 구성되어 있는데, 폴리곤 영역의 꼭지점(Vertex)에 텍스쳐 이미지의 색상정보를 부여하여 버텍스 컬러값(Vertex color)을 설정할 수 있다.For example, in order to extract 3D data for the segment by segmenting the 'nail' part, which is the area desired by the user, for the object 'human hand', the mesh data included in the scan object data of 'human hand' Color information can be given by applying information about the texture image to (Mesh data). At this time, the mesh data is composed of a multi-polygon area, and a vertex color can be set by assigning color information of a texture image to a vertex of the polygon area.

이렇게 부여된 버텍스 컬러값에 기초하여 스캔 오브젝트의 매쉬데이터를 구성하는 폴리곤 영역 각각의 면에도 RGB값이 설정될 수 있다. 이 때, 사용자가 세그멘트에 마스킹한 특정색상에 대한 RGB값과 매쉬데이터의 폴리곤 영역 각각에 대한 RGB값을 비교하여 폴리곤 영역의 RGB값과 특정 색상에 대한 RGB값이 일치하는 경우 RGB값이 일치하는 해당 폴리곤 영역을 추출함으로써 오브젝트의 세그멘테이션 동작이 수행될 수 있다.Based on the vertex color values given in this way, RGB values may also be set for each face of the polygon region constituting the mesh data of the scan object. At this time, the RGB values of the specific color masked by the user in the segment are compared with the RGB values of each polygon area of the mesh data. If the RGB values of the polygon area and the RGB values of the specific color match, the RGB values match. A segmentation operation of an object may be performed by extracting a corresponding polygon area.

한편, 이러한 동작은 사용자가 원하는 부분(Segment)만을 제외하고 텍스쳐 이미지의 나머지 영역에 마스킹(Masking)한 경우에도 마찬가지로 적용될 수 있다.Meanwhile, this operation may be applied similarly to a case in which the rest of the texture image is masked except for a segment desired by the user.

도 8은 일 실시예에 따른 3D모델링 데이터에 대한 메시데이터(매쉬데이터)의 구조를 개략적으로 나타낸 도면이다.8 is a diagram schematically showing the structure of mesh data (mesh data) for 3D modeling data according to an embodiment.

도 8을 참고하면, 3D모델링 데이터 내에 고유속성 값을 포함하는 메시데이터(매쉬데이터)의 구조(D800)를 나타낸 것을 의미할 수 있다.Referring to FIG. 8 , it may mean that a structure (D800) of mesh data (mesh data) including unique attribute values in 3D modeling data is shown.

도 8을 참고하면, 1 내지 13의 숫자값은 매쉬데이터를 구성하는 폴리곤 영역의 꼭지점(Vertex)을 표시하는 숫자(D810)를 의미할 수 있다.Referring to FIG. 8 , the numerical values of 1 to 13 may mean a number D810 indicating a vertex of a polygon area constituting mesh data.

도 8은 3D 모델링 데이터에 포함된 메시데이터에 대한 개선된 구조에 관한 것을 설명하기 위한 것일 수 있다. 8 may be for explaining an improved structure of mesh data included in 3D modeling data.

메시데이터는 오브젝트의 3D 모델의 모양과 표면을 정의하는 꼭지점, 모서리 및 면의 모음으로 구성될 수 있다. Mesh data can consist of a collection of vertices, edges, and faces that define the shape and surface of a 3D model of an object.

전통적인 메시 데이터 구조는 3차원 공간에서 각 꼭지점(D810)의 위치, 모서리를 형성하기 위한 각 꼭지점 간의 연결, 면을 형성하기 위한 모서리 간의 연결을 저장할 수 있으나, 본 발명의 개선된 메시 데이터 구조(D800)는 꼭지점 색상 값(Vertex color)을 포함하여 각 꼭지점에 대한 추가 정보를 포함할 수 있다. The traditional mesh data structure can store the position of each vertex D810 in the 3D space, the connection between each vertex to form an edge, and the connection between edges to form a face, but the improved mesh data structure of the present invention (D800 ) may include additional information about each vertex, including vertex color values.

꼭지점 색상 값은 꼭지점의 색상을 나타내는 RGB(Red, Green, Blue) 값의 집합을 의미할 수 있다. 이를 통해 각 꼭지점의 색상을 사용하여 음영 효과를 생성하고 실제 물체의 모양을 시뮬레이션할 수 있기 때문에 보다 사실적이고 상세한 3D 모델을 사용할 수 있다.The vertex color value may refer to a set of RGB (Red, Green, Blue) values representing colors of the vertex. This allows for more realistic and detailed 3D models because the color of each vertex can be used to create shading effects and simulate the shape of real objects.

본 발명의 개선된 메시 데이터 구조(D800)는 꼭지점 색상 값(Vertex color) 외에도 표면 법선, 텍스처 좌표 또는 재료 정보와 같은 각 꼭지점과 연관된 다른 속성도 포함할 수 있다. 이러한 추가 정보를 메시 데이터 구조에 포함시킴으로써, 3D 모델링 소프트웨어는 보다 정확하고 상세한 모델을 만들 수 있다.The improved mesh data structure D800 of the present invention may include other attributes associated with each vertex such as surface normals, texture coordinates, or material information in addition to vertex color values. By incorporating this additional information into the mesh data structure, 3D modeling software can create more accurate and detailed models.

개선된 메시 데이터 구조는 다양한 3D 모델링 소프트웨어 및 파일 형식과 함께 사용될 수 있다. 메시 데이터 구조(D800)에 꼭지점 색상 값 및 기타 속성을 포함하면 3D 모델의 시각적 품질을 향상시키고 사용자에게 보다 현실적이고 몰입적인 경험을 제공할 수 있다.The advanced mesh data structure can be used with a variety of 3D modeling software and file formats. Including vertex color values and other properties in the mesh data structure (D800) can improve the visual quality of 3D models and provide users with a more realistic and immersive experience.

즉, 본 발명(100)은 각 꼭지점과 연관된 꼭지점 색상 값(Vertex color) 및 기타 속성을 포함하는 3D 모델링 데이터를 위한 개선된 메시 데이터 구조를 제공한다. 이를 통해 보다 사실적이고 상세한 3D 모델을 구현할 수 있으며 3D 모델링 소프트웨어의 시각적 품질을 향상시킬 수 있다.That is, the present invention 100 provides an improved mesh data structure for 3D modeling data including vertex color values and other properties associated with each vertex. Through this, more realistic and detailed 3D models can be implemented and the visual quality of 3D modeling software can be improved.

도 9는 일 실시예에 따른 추출된 손톱데이터를 이용하여 사용자 맞춤형 네일팁을 제작할 수 있다는 것을 나타내기 위한 도면이다.9 is a diagram illustrating that a user-customized nail tip can be manufactured using extracted nail data according to an embodiment.

도 9를 참고하면, 본 발명의 일 실시예에 따라 스캔 오브젝트가 '사람의 손'이고, 세그멘트가 '손톱'인 경우를 상정해볼 수 있다. 본 발명의 프로세서(120)의 제어에 따라 스캔 오브젝트 및 마스킹 된 세그멘트를 포함하는 텍스쳐 이미지가 결합된 3D모델링 데이터가 형성되면, 3D모델링 데이터의 매쉬데이터로부터 특정 색상 추출 또는 제거 알고리즘에 따라 사용자가 원하는 영역인 세그멘트(예를 들어, '손톱')에 관한 3D 데이터를 출력할 수 있다. 이에 따라, 손톱에 관한 3D 데이터를 입력 데이터(D910)로 하여 사용자 단말을 통해 Shape(모양)(D912) 및 Length(길이)(D913) 정보를 추가로 입력하면, 네일팁 자동설계 알고리즘을 통해 네일팁이 3D데이터로서 자동설계되고, 상기 3D데이터를 기반으로 3D 프린팅되도록 3D프린팅 기능을 수행하는 외부장치를 제어하는 것을 통해 사용자 맞춤형 네일팁을 제작할 수 있다. 뿐만 아니라, 네일팁의 3D 데이터를 이용하여 3D 프린팅 방식뿐 아니라 다양한 제작방식으로 네일팁을 제작할 수도 있다.Referring to FIG. 9 , it can be assumed that the scan object is a 'human hand' and the segment is a 'nail' according to an embodiment of the present invention. When 3D modeling data in which a texture image including a scan object and a masked segment is combined is formed under the control of the processor 120 of the present invention, a user desired color is extracted from the mesh data of the 3D modeling data according to a specific color extraction or removal algorithm. 3D data about a segment (eg, 'nail') that is an area may be output. Accordingly, when Shape (D912) and Length (D913) information is additionally input through the user terminal using the 3D data on the nail as the input data (D910), the nail tip is automatically designed through the nail tip design algorithm. A user-customized nail tip can be manufactured by controlling an external device that performs a 3D printing function so that the tip is automatically designed as 3D data and 3D printed based on the 3D data. In addition, the nail tip may be manufactured using 3D data of the nail tip not only by 3D printing but also by various manufacturing methods.

즉, 3D 스캐닝 기술을 통해 취득한 오브젝트에 대하여 사용자가 원하는 영역을 세그멘테이션 하여 세그멘트를 추출하고, 세그멘테이션의 정확도를 높이기 위해 딥러닝(Deep learning)을 활용할 수 있으며, 추출된 세그멘트의 3D 데이터에 기초하여 모양 및 길이 정보를 추가로 입력하면 미리 결정된 네일팁 자동설계 알고리즘에 따라 사용자 맞춤형 물건을 제작할 수 있다.That is, with respect to the object acquired through 3D scanning technology, the segment is extracted by segmenting the area desired by the user, deep learning can be used to increase the accuracy of the segmentation, and the shape can be obtained based on the 3D data of the extracted segment. and length information are additionally input, a user-customized object may be manufactured according to a predetermined automatic nail tip design algorithm.

한편, 개시된 실시예들은 컴퓨터에 의해 실행 가능한 명령어를 저장하는 기록매체의 형태로 구현될 수 있다. 명령어는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 프로그램 모듈을 생성하여 개시된 실시예들의 동작을 수행할 수 있다. 기록매체는 컴퓨터로 읽을 수 있는 기록매체로 구현될 수 있다.Meanwhile, the disclosed embodiments may be implemented in the form of a recording medium storing instructions executable by a computer. Instructions may be stored in the form of program codes, and when executed by a processor, create program modules to perform operations of the disclosed embodiments. The recording medium may be implemented as a computer-readable recording medium.

컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터에 의하여 해독될 수 있는 명령어가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래쉬 메모리, 광 데이터 저장장치 등이 있을 수 있다. Computer-readable recording media include all types of recording media in which instructions that can be decoded by a computer are stored. For example, there may be read only memory (ROM), random access memory (RAM), magnetic tape, magnetic disk, flash memory, optical data storage device, and the like.

이상에서와 같이 첨부된 도면을 참조하여 개시된 실시예들을 설명하였다. 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자는 본 개시의 기술적 사상이나 필수적인 특징을 변경하지 않고도, 개시된 실시예들과 다른 형태로 본 개시가 실시될 수 있음을 이해할 것이다. 개시된 실시예들은 예시적인 것이며, 한정적으로 해석되어서는 안 된다.As above, the disclosed embodiments have been described with reference to the accompanying drawings. Those skilled in the art to which the present disclosure pertains will understand that the present disclosure may be implemented in a form different from the disclosed embodiments without changing the technical spirit or essential features of the present disclosure. The disclosed embodiments are illustrative and should not be construed as limiting.

100 : 3D 스캐닝을 통해 형성된 오브젝트의 세그멘테이션 장치
200 : 3D 스캔 기능을 수행하는 외부장치
300 : 사용자 단말
100: Segmentation device for objects formed through 3D scanning
200: External device performing 3D scan function
300: user terminal

Claims (10)

메모리;
상기 메모리와 통신을 수행하는 적어도 하나의 프로세서; 및
3D 스캔 기능을 수행하는 외부장치 및 사용자 단말과 통신을 수행하는 통신모듈을 포함하고,
상기 프로세서는,
상기 외부장치로부터 스캔의 대상인 스캔 오브젝트(Scan object) 및 상기 스캔 오브젝트의 질감을 나타내는 텍스쳐 이미지(Texture image)를 수신하고,
지도학습(Supervised-learning)을 통해 상기 텍스쳐 이미지에 기초하여 오브젝트의 원하는 부분을 나타내는 세그멘트(Segment)를 추출하고,
추출된 상기 세그멘트를 미리 결정한 특정 색상으로 마스킹(Masking)하고,
상기 스캔 오브젝트 및 마스킹된 상기 세그멘트를 포함하는 상기 텍스쳐 이미지에 기초하여 상기 오브젝트가 삼차원적으로 모델링된 3D모델링 데이터를 형성하고,
상기 3D모델링 데이터의 속성 값을 포함하는 매쉬데이터(Mesh data)에 기초하여 마스킹한 상기 특정 색상에 대한 속성 값과의 비교를 통해 상기 세그멘트에 대한 3D 데이터를 추출하며,
상기 마스킹하는 것은,
상기 오브젝트에서 상기 세그멘트에 관한 부분만을 제외한 영역이고,
상기 3D모델링 데이터는,
상기 스캔 오브젝트 및 마스킹된 상기 세그멘트에 관한 부분을 제외한 영역을 포함하는 상기 텍스쳐 이미지에 기초하여 형성되고,
상기 세그멘트에 대한 3D 데이터를 추출하는 것은,
상기 3D모델링 데이터의 속성 값을 포함하는 매쉬데이터에 기초하여 마스킹한 상기 특정 색상에 대한 속성 값과의 비교를 통해 상기 마스킹된 영역을 제외함으로써 수행되는 것을 특징으로 하는, 3D 스캐닝을 통해 형성된 오브젝트의 세그멘테이션 장치.
Memory;
at least one processor in communication with the memory; and
Including a communication module that communicates with an external device and a user terminal that performs a 3D scan function,
the processor,
Receiving a scan object, which is a scan object, and a texture image representing a texture of the scan object from the external device;
Extracting a segment representing a desired part of an object based on the texture image through supervised-learning,
Masking the extracted segments with a predetermined specific color,
Forming 3D modeling data in which the object is three-dimensionally modeled based on the texture image including the scan object and the masked segments;
Extracting 3D data for the segment through comparison with attribute values for the specific color masked based on mesh data including attribute values of the 3D modeling data;
The masking is
An area of the object excluding only the portion related to the segment,
The 3D modeling data,
It is formed based on the texture image including an area excluding the scan object and the masked portion related to the segment,
Extracting 3D data for the segment,
Characterized in that it is performed by excluding the masked area through comparison with the attribute value for the specific color masked based on the mesh data including the attribute value of the 3D modeling data, of the object formed through 3D scanning segmentation device.
제1 항에 있어서,
상기 스캔 오브젝트의 질감은,
적어도 하나의 상기 텍스쳐 이미지에 기초하여 상기 오브젝트의 포인트 클라우드를 구축함으로써 삼차원적으로 구현하는 것을 특징으로 하는, 3D 스캐닝을 통해 형성된 오브젝트의 세그멘테이션 장치.
According to claim 1,
The texture of the scan object is
An apparatus for segmenting an object formed through 3D scanning, characterized in that three-dimensionally implemented by constructing a point cloud of the object based on at least one of the texture images.
제1 항에 있어서,
세그멘테이션 할 부분이 포함된 오브젝트 데이터 및 상기 세그멘트 부분 데이터를 훈련데이터로 하여 라벨링(Labeling)하고,
라벨링 된 상기 훈련데이터를 기초로 학습모델에 배치(Batch)가 이루어지고,
사용자로부터 상기 텍스쳐 이미지를 입력받아 상기 세그멘트가 추출되면,
미리 저장된 정답 데이터 세트(Ground truth set)를 기초로 상기 세그멘트의 추출에 대한 테스트 및 검증이 이루어지고,
상기 테스트 및 검증에 기초하여 피드백 데이터를 생성하고,
상기 피드백 데이터에 기초하여 상기 학습모델의 파라미터가 튜닝되어 상기 오브젝트에 대한 세그멘테이션의 지도학습(Supervised-learning)을 수행하는 것을 특징으로 하는, 3D 스캐닝을 통해 형성된 오브젝트의 세그멘테이션 장치.
According to claim 1,
Labeling the object data including the part to be segmented and the segment part data as training data,
Batch is made to the learning model based on the labeled training data,
When the texture image is input from the user and the segment is extracted,
Based on a pre-stored ground truth set, testing and verification of the extraction of the segment is performed,
generate feedback data based on the testing and verification;
Based on the feedback data, parameters of the learning model are tuned to perform supervised-learning of the segmentation of the object.
제3 항에 있어서,
상기 세그멘트에 대한 3D 데이터를 추출하는 것은,
상기 매쉬데이터에 상기 텍스쳐 이미지에 대한 색상정보를 버텍스 컬러값(Vertex color)으로 부여하고,
상기 버텍스 컬러값에 기초하여 형성된 상기 매쉬데이터의 폴리곤 영역 각각에 대한 RGB값을 추출하고,
상기 매쉬데이터의 폴리곤 영역 각각에 대한 RGB값과 마스킹한 상기 특정 색상에 대한 RGB값을 비교하고,
상기 폴리곤 영역의 RGB값과 상기 특정 색상에 대한 RGB값이 일치하는 경우 RGB값이 일치하는 상기 폴리곤 영역을 추출함으로써 수행되는 것을 특징으로 하는, 3D 스캐닝을 통해 형성된 오브젝트의 세그멘테이션 장치.
According to claim 3,
Extracting 3D data for the segment,
Assigning color information for the texture image to the mesh data as a vertex color value,
Extracting RGB values for each polygon area of the mesh data formed based on the vertex color values;
Comparing RGB values for each polygon area of the mesh data with RGB values for the specific color masked,
When the RGB values of the polygon area and the RGB values of the specific color match, the segmentation device of an object formed through 3D scanning characterized in that it is performed by extracting the polygon area with matching RGB values.
삭제delete 제4 항에 있어서,
상기 스캔 오브젝트는 사람 손에 대한 데이터를 의미하고,
상기 세그멘트는 상기 사람 손의 손톱부분에 대한 영역을 의미하는 것을 특징으로 하는, 3D 스캐닝을 통해 형성된 오브젝트의 세그멘테이션 장치.
According to claim 4,
The scan object means data about a human hand,
The segmentation apparatus of an object formed through 3D scanning, characterized in that the segment refers to a region for a nail portion of the human hand.
제4 항에 있어서,
상기 3D모델링 데이터는,
.fbx, .dae, .3ds, .abc, .usd 및 .obj 중 어느 하나의 확장자로 컴파일링 되어 상기 메모리에 저장되는 것을 특징으로 하는, 3D 스캐닝을 통해 형성된 오브젝트의 세그멘테이션 장치.
According to claim 4,
The 3D modeling data,
.fbx, .dae, .3ds, .abc, .usd and .obj are compiled with any one of the extensions and stored in the memory, characterized in that, the segmentation device of the object formed through 3D scanning.
3D 스캔 기능을 수행하는 외부장치로부터 스캔의 대상인 스캔 오브젝트(Scan object) 및 상기 스캔 오브젝트의 질감을 나타내는 텍스쳐 이미지(Texture image)를 수신하는 단계;
지도학습(Supervised-learning)을 통해 상기 텍스쳐 이미지에 기초하여 오브젝트의 원하는 부분을 나타내는 세그멘트(Segment)를 추출하는 단계;
추출된 상기 세그멘트를 미리 결정한 특정 색상으로 마스킹(Masking)하는 단계;
상기 스캔 오브젝트 및 마스킹된 상기 세그멘트를 포함하는 상기 텍스쳐 이미지에 기초하여 상기 오브젝트가 삼차원적으로 모델링된 3D모델링 데이터를 형성하는 단계; 및
상기 3D모델링 데이터의 속성 값을 포함하는 매쉬데이터(Mesh data)에 기초하여 마스킹한 상기 특정 색상에 대한 속성 값과의 비교를 통해 상기 세그멘트에 대한 3D 데이터를 추출하는 단계를 포함하며,
상기 마스킹하는 것은,
상기 오브젝트에서 상기 세그멘트에 관한 부분만을 제외한 영역이고,
상기 3D모델링 데이터는,
상기 스캔 오브젝트 및 마스킹된 상기 세그멘트에 관한 부분을 제외한 영역을 포함하는 상기 텍스쳐 이미지에 기초하여 형성되고,
상기 세그멘트에 대한 3D 데이터를 추출하는 것은,
상기 3D모델링 데이터의 속성 값을 포함하는 매쉬데이터에 기초하여 마스킹한 상기 특정 색상에 대한 속성 값과의 비교를 통해 상기 마스킹된 영역을 제외함으로써 수행되는 것을 특징으로 하는, 3D 스캐닝을 통해 형성된 오브젝트의 세그멘테이션 방법.
Receiving a scan object that is a scan object and a texture image representing a texture of the scan object from an external device that performs a 3D scan function;
Extracting a segment representing a desired part of an object based on the texture image through supervised-learning;
Masking the extracted segments with a predetermined color;
forming 3D modeling data in which the object is three-dimensionally modeled based on the texture image including the scan object and the masked segments; and
Extracting 3D data for the segment through comparison with attribute values for the specific color masked based on mesh data including attribute values of the 3D modeling data,
The masking is
An area of the object excluding only the portion related to the segment,
The 3D modeling data,
It is formed based on the texture image including an area excluding the scan object and the masked portion related to the segment,
Extracting 3D data for the segment,
Characterized in that it is performed by excluding the masked area through comparison with the attribute value for the specific color masked based on the mesh data including the attribute value of the 3D modeling data, of the object formed through 3D scanning Segmentation method.
제8 항에 있어서,
상기 세그멘트에 대한 3D 데이터를 추출하는 단계는,
상기 매쉬데이터에 상기 텍스쳐 이미지에 대한 색상정보를 버텍스 컬러값(Vertex color)으로 부여하는 단계;
상기 버텍스 컬러값에 기초하여 형성된 상기 매쉬데이터의 폴리곤 영역 각각에 대한 RGB값을 추출하는 단계;
상기 매쉬데이터의 폴리곤 영역 각각에 대한 RGB값과 마스킹한 상기 특정 색상에 대한 RGB값을 비교하는 단계; 및
상기 폴리곤 영역의 RGB값과 상기 특정 색상에 대한 RGB값이 일치하는 경우 RGB값이 일치하는 상기 폴리곤 영역을 추출하는 단계를 포함하는 것을 특징으로 하는, 3D 스캐닝을 통해 형성된 오브젝트의 세그멘테이션 방법.
According to claim 8,
The step of extracting 3D data for the segment,
assigning color information about the texture image to the mesh data as a vertex color value;
extracting RGB values for each polygon area of the mesh data formed based on the vertex color values;
Comparing the RGB values of each polygon area of the mesh data with the RGB values of the masked specific color; and
and extracting the polygon area having matching RGB values when the RGB values of the polygon area and the RGB values of the specific color match.
하드웨어와 결합하여 상기 제8 항 및 상기 제9 항 중 어느 한 항의 방법을 실행하는 기록매체에 저장된, 컴퓨터 프로그램.A computer program stored in a recording medium that executes the method of any one of claims 8 and 9 in combination with hardware.
KR1020230034766A 2023-03-16 2023-03-16 Object segmentation device and method formed through 3d scanning KR102547323B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230034766A KR102547323B1 (en) 2023-03-16 2023-03-16 Object segmentation device and method formed through 3d scanning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230034766A KR102547323B1 (en) 2023-03-16 2023-03-16 Object segmentation device and method formed through 3d scanning

Publications (1)

Publication Number Publication Date
KR102547323B1 true KR102547323B1 (en) 2023-06-22

Family

ID=86988880

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230034766A KR102547323B1 (en) 2023-03-16 2023-03-16 Object segmentation device and method formed through 3d scanning

Country Status (1)

Country Link
KR (1) KR102547323B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130117668A (en) * 2012-04-17 2013-10-28 삼성전자주식회사 Method of generating 3d volumetric data
KR102259509B1 (en) 2019-08-22 2021-06-01 동의대학교 산학협력단 3d modeling process based on photo scanning technology
KR20210068077A (en) * 2018-09-30 2021-06-08 샤이닝 쓰리디 테크 컴퍼니., 리미티드. 3D model creation method, device, device and storage medium
JP2021536613A (en) * 2018-09-12 2021-12-27 株式会社ソニー・インタラクティブエンタテインメント Methods and systems for generating human 3D reconstructions
KR102360468B1 (en) * 2017-07-31 2022-02-09 현대오토에버 주식회사 Apparatus for manufacturing lane information and method thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130117668A (en) * 2012-04-17 2013-10-28 삼성전자주식회사 Method of generating 3d volumetric data
KR102360468B1 (en) * 2017-07-31 2022-02-09 현대오토에버 주식회사 Apparatus for manufacturing lane information and method thereof
JP2021536613A (en) * 2018-09-12 2021-12-27 株式会社ソニー・インタラクティブエンタテインメント Methods and systems for generating human 3D reconstructions
KR20210068077A (en) * 2018-09-30 2021-06-08 샤이닝 쓰리디 테크 컴퍼니., 리미티드. 3D model creation method, device, device and storage medium
KR102259509B1 (en) 2019-08-22 2021-06-01 동의대학교 산학협력단 3d modeling process based on photo scanning technology

Similar Documents

Publication Publication Date Title
US11431896B2 (en) Augmented reality for three-dimensional model reconstruction
US11468636B2 (en) 3D hand shape and pose estimation
WO2020253663A1 (en) Artificial intelligence-based image region recognition method and apparatus, and model training method and apparatus
US11443484B2 (en) Reinforced differentiable attribute for 3D face reconstruction
US11798261B2 (en) Image face manipulation
US20210166477A1 (en) Synthesizing images from 3d models
CN108573527B (en) Expression picture generation method and equipment and storage medium thereof
KR20220062338A (en) Hand pose estimation from stereo cameras
US20190392587A1 (en) System for predicting articulated object feature location
CN109804411A (en) System and method for positioning and mapping simultaneously
CN110276344A (en) A kind of method of image segmentation, the method for image recognition and relevant apparatus
US11775781B2 (en) Product verification in a messaging system
CN108012559A (en) Automatic threedimensional model generation
CN105051755A (en) Part and state detection for gesture recognition
CN111814620A (en) Face image quality evaluation model establishing method, optimization method, medium and device
CN109858333A (en) Image processing method, device, electronic equipment and computer-readable medium
KR102362470B1 (en) Mehtod and apparatus for processing foot information
KR20230152149A (en) Systems and methods for dynamic identification of surgical trays and items contained thereon
KR20230027237A (en) Reconstruction of 3D object models from 2D images
KR102547323B1 (en) Object segmentation device and method formed through 3d scanning
KR102547324B1 (en) Custom nail tip production control device and method through 3d printing
Liang Art Design Teaching Based on the Multidata Fusion Algorithm and Virtual Simulation Technology
US20240070983A1 (en) Method and system for generating anonymized digital humans
CN115861572B (en) Three-dimensional modeling method, device, equipment and storage medium
CN117392735B (en) Face data processing method, device, computer equipment and storage medium

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant